
上個月,谷歌宣布推出“AI共同科學家”,公司表示這款人工智能設計用於幫助科學家創建假設和研究計劃。谷歌宣稱這是一種發現新知識的方式,但專家認為這款工具以及類似工具距離公關承諾還有很大差距。 “這款初步工具雖然有趣,但似乎不太可能被嚴肅使用,”麻省理工學院的計算機視覺研究員莎拉·比利告訴TechCrunch。 “我不確定科學界是否需要這種假設生成系統。” 谷歌是最新的科技巨頭之一,提出AI將在未來某天大幅加速科學研究的觀點,特別是在文獻密集的領域,如生物醫學。OpenAI首席執行官山姆·奧爾特曼今年早些時候在一篇文章中表示,“超智能”的AI工具可以“大大加速科學發現和創新。”同樣,Anthropic首席執行官達里奧·阿莫迪大膽預測,AI可以幫助制定大多數癌症的療法。 但許多研究人員認為,如今的AI在引導科學過程方面並不特別有用。他們說,谷歌的AI共同科學家等應用似乎更多是為了炒作,缺乏實證數據支持。 例如,在其描述AI共同科學家的博客文章中,谷歌表示該工具已在諸如急性髓性白血病等領域展示了潛力,該癌症影響骨髓。然而,“沒有一個合法的科學家會認真對待 [它們]”,亞利桑那州圖森市西北醫療中心的病理學家法維亞·迪比克說。 迪比克告訴TechCrunch:“這可能是研究人員的一個很好的起點,但[...]缺乏細節令人擔憂,並且不使我相信它。” “所提供的信息缺乏令人真正難以理解這是否真的有所幫助。” 這不是谷歌第一次因未提供重複結果的手段而遭到科學界的批評。 2020年,谷歌宣稱其訓練用於檢測乳腺腫瘤的AI系統取得比人類放射科醫師更好的結果。哈佛大學和斯坦福大學的研究人員在《自然》雜誌上發表了一篇反駁文章,稱谷歌的研究缺乏詳細的方法和代碼“損害了其科學價值”。 科學家還批評謷谷歌為科學學科(如材料工程)的AI工具掩飾了局限性。2023年,該公司表示其一款名為GNoME的AI系統幫助合成了大約40種“新材料”。然而,一項外部分析發現,這些材料中沒有一種是真正全新的。 罗切斯特理工学院软件工程助理教授阿希克·胡达布克什告诉TechCrunch:“在不同的科學學科中進行嚴格、獨立的評估之前,我們將無法真正了解谷歌等‘共同科學家’工具的優勢和局限性。”“人工智能在受控環境中通常表現良好,但在規模應用時可能會失敗。” 复杂的过程 开發AI工具進行科學發現的挑戰之一在於預料到無數干擾因素。AI可能在需要進行廣泛探索的領域中派上用場,例如縮小一個龐大可能性清單的範圍。但AI能否進行導致科學突破的創新性問題解決,仍不太明確。 胡达布克說:“我們可以通過歷史看到,一些最重要的科學進步,如mRNA疫苗的開發,是由於人類直覺和面對懷疑而堅持不懈。”“就目前而言,AI也許無法很好地複製這一點。” 在日本索尼電腦科學實驗室的AI研究員蘭娜·西納皮恩認為,諸如谷歌AI共同科學家之類的工具專注於錯誤類型的科學基礎工作。 西納皮恩認為,AI可以自動執行技術上困難或繁瑣的任務,如總結新學術文獻或將工作格式化以符合資助申請的要求。但在科學界內,沒有太多需求需要一個生成假設的AI共同科學家,她說,許多研究人員從中獲得智力上的滿足。 西納皮恩告訴TechCrunch:“對許多科學家來說,包括我自己在內,生成假設是工作中最有趣的部分。”“為什麼我要將我的樂趣外包給計算機,然後只剩下辛苦的工作要做?一般來說,許多生成AI研究人員似乎不理解人類為何做其所為,我們最終提出了自動執行我們最感興趣的部分的產品提案。” 比利指出,科學過程中最困難的步驟往往是設計和實施研究和分析以驗證或推翻假設——這在當前AI系統的能力範圍內不一定。當然,AI無法使用物理工具進行實驗,並且在遇到數據極度有限的問題時通常表現較差。 比利表示:“大多數科學無法完全依靠虛擬方式完成——科學過程中往往存在一個重要組成部分是物理的,例如在實驗室收集新數據和進行實驗。”“相對於實際科學過程,這些系統 [如谷歌的AI共同科學家] 的一個重大限制是缺乏有關使用系統的實驗室和研究人員以及他們特定的研究目標、他們過去的工作、他們的技能組以及他們可以訪問的資源的情況的上下文。” AI風險 AI的技術缺陷和風險,如其產生幻覺的傾向,也使科學家對於將其用於嚴肅工作感到謹慎。 胡达布克擔心AI工具可能最終會在科學文獻中產生噪音,而不是推動進展。 這已經成為一個問題。最近的一項研究發現,由AI製作的“垃圾科學”正在湧入谷歌學術搜索引擎Google Scholar。” 胡达布克說:“如果不經仔細監控,由AI生成的研究可能會淹沒科學領域中品質較低甚至具有誤導性的研究,使同行評審過程不堪重負。”“同行評審過程遭到淹沒已經是一個問題,特別是在計算機科學等領域,頂級會議看到投稿數量呈指數級增長。” 即使設計良好的研究也可能會被行為不端的AI污染,西納皮恩說。她說,雖然她喜歡一款能夠幫助進行文獻查詢和整合的工具的想法,但她表示,她不會信任當前的AI可靠地執行這項工作。 西納皮恩說:“這些是各種現有工具所聲稱要做的事情,但這些不是我會親自交給當前AI來處理的工作。”她補充說,她對許多AI系統的培訓方式以及它們消耗的能源量感到不滿。“即使解決了所有倫理問題[...],當前的AI也仍然不夠可靠,不足以使我基於它們的輸出來建立我的工作。”