最近,人工智能領域出現一些令人鼓舞的消息。在令人沮喪的泰勒·斯威夫特深度偽造色情丑聞和政治深度偽造內容泛濫之后, 科技公司正在加緊行動,采取措施更好地檢測人工智能生成的內容。
最近,有語音機器人正在偽裝成美國總統(tǒng)拜登的聲音,告訴選民待在家里,不要投票。
Meta公司表示將在Facebook、Instagram和Threads3個社交媒體平臺上標記人工智能生成的圖像。
當有人使用Meta的人工智能工具創(chuàng)建圖像時,該公司會在圖像中添加可見的標記,以及“烙印”在圖像文件中的肉眼不可見水印和元數據。
Meta表示,其水印標準符合人工智能研究非營利組織Partnership onAI制定的實踐規(guī)則。
其他大型科技公司也在大力支持一項有潛力的技術標準,該標準可以為圖像、視頻和音頻添加一種“營養(yǎng)標簽”。它被稱為C2PA,是一種開源的互聯(lián)網協(xié)議,依靠密碼學來編碼一段內容的來源細節(jié),技術專家又將其稱為“來源”信息。
C2PA的開發(fā)人員經常將該協(xié)議比作食品包裝上的營養(yǎng)標簽,它會說明特定內容來自哪里,以及是由什么人或工具創(chuàng)建的。
Meta表示它也參加了C2PA。擁有一個全行業(yè)統(tǒng)一的標準使公司更容易檢測到人工智能生成的內容,無論它是用哪個系統(tǒng)創(chuàng)建的。
OpenAI公司也宣布了新的內容來源標注措施。該公司表示,將在其人工智能工具ChatGPT和DALL-E3生成的圖像元數據中添加水印。
OpenAI表示,現在它將在圖像中添加可見標識,以表明它們是用人工智能創(chuàng)建的。
這些舉措是一個好的開始,給了人們希望,但并非萬無一失。元數據中的水印很容易通過截圖來規(guī)避,而圖片上的標識可以被裁剪或編輯掉。
像谷歌SynthID這樣的隱形水印可能更有希望,它可以巧妙地改變圖像中的像素,使計算機程序可以檢測到水印,但人眼無法識別出來。這種水印更難篡改。
但創(chuàng)造這些“溯源”工具仍然有價值。生成式人工智能專家亨利·阿杰德就如何杜絕深度偽造色情內容接受采訪時表示,重點是給別有用心的人創(chuàng)造一個“坎坷的過程”。
換句話說,給深度偽造內容的生成和傳播途徑增加障礙,以盡可能地減少這些有害內容的創(chuàng)建和分享。一些真正圖謀不軌的人可能仍然會推翻這些障礙,但只要它變得稍微困難一點點,就會有所幫助。
科技公司還可以引入許多非技術性的修復措施,來預防深度偽造色情內容之類的問題。谷歌、亞馬遜、微軟和蘋果等主要云服務提供商和應用商店可以禁用那些與創(chuàng)建深度偽造色情內容有關的應用。
水印應該在所有人工智能生成的內容中全面普及,即使是開發(fā)該技術的小型初創(chuàng)公司,也應該參與其中。
除了這些自愿措施,我們也開始看到具有約束力的法規(guī)出臺, 如歐盟的《人工智能法案》和《數字服務法案》。這些法案要求科技公司披露人工智能生成的內容,并更快地刪除有害內容。
美國立法者也對通過法規(guī)來約束深度偽造技術和內容重新產生了興趣。
在人工智能生成的“ 冒牌拜登總統(tǒng)”出現并以機器人語音電話的方式告訴選民不要投票之后,美國聯(lián)邦通信委員會近日宣布,禁止在類似的語音電話中使用人工智能。
總的來說,這些政策指導方針和規(guī)則還是難以令人滿意,因為它們不具備真正的問責機制,很多公司可以隨心所欲地改變這些規(guī)則。
科技行業(yè)在自我監(jiān)管方面一向表現非常糟糕。在殘酷的、增長驅動的科技世界里,像“負責任的人工智能”這樣的項目往往是第一個面臨削減的。
盡管如此,這些新的溯源和水印舉措還是非常受歡迎的。它們比維持現狀好得多,因為現狀幾乎是一片空白。( 綜合整理報道)(策劃/克珂)