• 2019.02.16
    星期六

AI自動寫作 一半幾可亂真
憂程式製假新聞 發明組織押後公開

[2019.02.16] 發表

非牟利人工智能(AI)研究組織OpenAI研發出一套「自動寫作」系統,利用語言模型運算寫作出貼近自然語言的文章。組織憂系統成「雙面刃」,被用於大量生產假新聞等不實資訊,罕有決定押後完整公開相關研究的程式數據,盼讓公眾有更多時間討論技術影響,並促政府研究是否需要規管。

規模最大 毋須大量訓練數據

這套名為GPT2的AI系統採用「零次學習」(zero-shot learning)的運作模式,運作基礎是透過分析社交網站Reddit中最少有3個獲用戶評為「有價值」的1000萬篇文章而建立的語言模型。雖然這並非嶄新概念,但規模為迄今最龐大,較此前最先進的模型大12倍。與其他AI應付每種任務都需大量訓練數據作範本學習不同,GPT2 理論上可藉由一套語言模型來應付多種涉及語言的工作,例如翻譯、總結文章等,毋須為每種任務重新學習,可能成為機器學習的突破。

輸入句子 系統猜想下文

GPT2能夠按照任何輸入的提示,寫出相關文章,例如提供一句句子,系統便會按照語言模型與統計數據猜想出此後最可能出現的詞語,並編寫出行文與內容連貫一致、恍如真人撰寫的文章。測試中能寫出像真文章的機會達五成,但亦會出現字詞重複、知識性錯誤與文章主題不自然改變等。另外,在回應提問的任務中,GPT2的成功率約4%,雖然屬起步階段,但其他基於小型語言模型的AI成功率只有1%。

OpenAI政策研究專家布倫戴奇(Miles Brundage)指出,GPT2產生的文章質素遠比此前同類系統的作品高明,認為同類研究對社會影響深遠,例如可能被濫用於撰寫關於企業的假新聞、韋y涉及種族歧視或性別歧視的文章,或是在亞馬遜、Trivago等網上消費資訊平台留下大量虛構評論等。

組織目前已公開研究論文,但暫緩披露相關的程式編碼以及採用的語言模型,以便進一步確認系統能力,亦盼引起公眾思考AI帶來的後果。布倫戴奇警告,全球各地都有類似研究,同類AI應用在未來無可避免。他表示,政府應展開檢視AI應用對社會的衝擊,並研究是否須設立規限,例如有系統地監察AI發展,因為他不認為這些工作全是研究人員的責任。

OpenAI由美國太空與電動車企業家馬斯克(Elon Musk)與奧爾特曼(Sam Altman)於2015年創立,旨在研究及推廣AI,並主張與其他機構自由合作,公開所有研究資料,盼AI造福人類,回應AI威脅人類的憂慮。

專家:社交平台有責任阻不實資訊

今次OpenAI局部公開研究成果的做法惹學界熱議。紐約大學自然語言研究專家鮑曼(Sam Bowman)警告,即使OpenAI沒有公開程式碼,但其論文亦能作為參考,遲早讓有心人開發出類似的系統。加州大學柏克萊分校電腦科學系副教授雷希特(Benjamin Recht)批評OpenAI研發譁眾取寵的AI系統,一早應慮及後果。專研科技對社會影響的專家農尼克(Brandie Nonnecke)認為,運用AI炮製假新聞者不會絕[,重要的是facebook等平台必須負起審查責任,阻截不實資訊流通。(BBC/金融時報)

更多國際要聞

明報網站 · 版權所有 · 不得轉載
Copyright © 2019 mingpaocanada.com All rights reserved.
Ming Pao Daily News A wholly owned subsidiary of Ming Pao Enterprise Corporation Ltd.
Vancouver Chinese Newspaper

5368 Parkwood Place, Richmond B.C. V6V 2N1 | Tel.: (604) 231-8998 | Fax: (604) 231-9881/9884 | Advertising Hotline Tel.: (604) 231-8992