跳至主內容

什麼是人工智慧幻覺?

螢幕上會顯示各種 ChatGPT 提示。

人工智慧幻覺是指人工智慧工具因其演算法在數據中發現並不存在的模式或錯誤解讀這些模式,而導致輸出結果不準確、具有誤導性或前後矛盾的情況。

隨著人工智慧在過去幾年中功能和普及程度的不斷提升,其一些缺陷和漏洞也逐漸暴露出來。

人們最關心的問題之一是人工智慧是否準確。在許多情況下,人工智慧已被證明是核實事實和研究資訊的極其有效的工具,但在其他情況下,其結果卻不正確或具有誤導性。

鑑於人工智慧在現代世界的應用範圍如此廣泛,這些不準確結果的後果可能極為嚴重。在本文中,我們將探討人工智慧幻覺發生的原因、其從技術和社會角度帶來的影響,以及您可以採取哪些措施來最大限度地降低自身使用人工智慧幻覺的風險。

人工智慧幻覺是如何發生的?

人工智慧產生幻覺的原因有很多,很多情況下,是多種因素同時作用的結果。這些原因包括(但不限於):

  • 缺乏足夠的訓練資料來引導人工智慧模型得出全面、準確的結果。
  • 訓練資料過多 這會導致過多無關的「數據雜訊」與相關且重要的資訊混淆。
  • 數據中存在的偏差會反映在產生的結果中。
  • 人工智慧模型可能只是根據輸入的資訊做出了錯誤的假設和結論。
  • 人工智慧模型缺乏現實世界的背景訊息,例如物體的物理屬性或與生成結果相關的更廣泛的資訊。

人工智慧幻覺是什麼樣的?

人工智慧幻覺沒有統一的症狀,因為它取決於模型的缺陷和所涉及的過程。然而,通常情況下,人工智慧幻覺會以以下五種方式之一表現出來:

  • 預測不準確:人工智慧模型可能會預測未來會發生一些實際上發生機率很低甚至根本不可能發生的事情。
  • 摘要資訊缺失:有時,人工智慧模型可能會遺漏一些關鍵的背景資訊或上下文,導致無法產生準確、全面的結果。這可能是由於模型缺乏必要的資料輸入,或是模型無法從其他來源搜尋到正確的上下文資訊。
  • 使用捏造資訊的摘要:與前一點類似,一些人工智慧模型可能會透過完全捏造資訊來彌補資訊不準確的不足。這種情況通常發生在模型所依賴的資料和上下文本身就不準確時。
  • 誤報和漏報:人工智慧常用於識別潛在風險和威脅,例如醫療保健領域的疾病症狀或銀行和金融領域的詐欺活動。人工智慧模型有時可能會識別出並不存在的威脅,或者在另一種極端情況下,漏掉實際存在的威脅。
  • 結果不合邏輯:如果您看過人工智慧生成的圖像,例如人物手臂和腿的數量不對,或者汽車的輪子太多,那麼您就會知道,人工智慧仍然會產生人類無法理解的結果。

為什麼避免人工智慧的「幻覺」如此重要?

您可能認為人工智慧的「幻覺」無關緊要,只需再次運行模型即可解決問題,產生正確的結果。

但事情並非如此簡單,任何應用於實際案例或發佈到公共領域的人工智慧「幻覺」都可能對大量人群造成非常嚴重的後果:

不道德地使用人工智慧

目前,人工智慧的使用普遍受到關注,使用這項技術的機構越來越被要求以負責任和道德的方式使用人工智慧,避免傷害或危及他人。放任人工智慧的「幻覺」未經審查地傳播——無論是有意還是無意——都無法滿足這些道德要求。

大眾和消費者的信任

與前文所述相關,許多人仍然擔憂人工智慧的應用,從個人資料的使用方式到人工智慧日益增強的能力是否會導致他們的工作消失。公共領域不斷出現的人工智慧幻覺案例可能會削弱公眾對人工智慧緩慢建立的信任,並導致人工智慧應用案例和企業在長期發展中受限。

誤導性決策

企業和個人都需要做出最佳、最明智的決策,並且越來越依賴資料、分析和人工智慧模型來消除決策中的猜測和不確定性。如果他們被人工智慧模型的不準確結果誤導,那麼他們做出的錯誤決策可能會造成災難性後果,從威脅企業獲利能力到誤診病人。

人工智慧錯誤資訊的法律和財務風險

正如上文提到的案例有力地表明,不準確的人工智慧產生資訊可能會從法律和財務角度造成巨大損害。例如,使用人工智慧創建的內容可能對某些人或企業構成誹謗,可能違反某些法律法規,甚至在某些極端情況下,還暗示或煽動人們從事非法活動。

避免偏見

我們生活在一個人們孜孜不倦地努力確保人人平等、不偏袒任何一類人的世界。然而,帶有偏見的AI數據卻可能在無意中強化許多偏見。人工智慧在招募中的應用就是一個很好的例子:AI的「幻覺」可能導致帶有偏見的結果,進而影響組織的多元化、平等和包容性工作。

典型的AI「幻覺」有哪些?

對業內人士來說,避免AI「幻覺」正成為一項艱鉅的任務。而且,這種情況並非只發生在缺乏專業知識和資源的小型企業身上。以下三個AI「幻覺」案例表明,即使是全球最大的科技公司也未能倖免:

Meta AI與唐納德·川普遇刺事件

在2024年7月針對時任總統候選人唐納德·川普的刺殺未遂事件發生後, Meta的AI聊天機器人最初拒絕回答任何有關該事件的問題,後來又聲稱該事件從未發生過。這個問題導致Meta調整了其人工智慧工具的演算法,但也引發了公眾對其偏見和審查保守派觀點的指責。

ChatGPT幻覺與虛假的法律研究

2023年,哥倫比亞一名男子向航空公司提起人身傷害索賠。他的律師首次使用領先的人工智慧工具ChatGPT來整理案情並準備法律文件。然而,儘管ChatGPT一再保證其找到的六個法律先例都是真實存在的,但實際上這些先例一個也不存在。

微軟的人工智慧聊天機器人Sydney愛上了使用者

據報道,微軟的人工智慧聊天機器人Sydney告訴《紐約時報》的一位科技專欄作家,它愛上了他,並希望他離開妻子與它在一起。在兩個小時的聊天過程中,凱文·魯斯(Kevin Roose)表示,Sydney向他分享了一些關於傳播人工智慧假訊息和變成人類的「黑暗幻想」。

如何才能最大限度地降低人工智慧幻覺的風險?

鑑於避免人工智慧幻覺風險的重要性,使用人工智慧模式的人們有責任採取一切切實可行的措施,以減輕任何可能導致問題的情況。我們建議:

確保人工智慧模型有明確的目標

近年來,隨著人工智慧應用的廣泛普及,一個常見的錯誤是,企業為了使用而使用人工智慧模型,卻不考慮其預期輸出。明確定義使用人工智慧模型的總體目標,可以確保結果聚焦,並避免因方法和數據過於寬泛而導致人工智慧產生「幻覺」。

提高訓練資料的品質

輸入人工智慧模型的資料品質越高,其輸出結果的品質就越高。優秀的人工智慧模型應基於相關、無偏見、結構良好且已過濾掉所有無關「資料雜訊」的資料。這對於確保產生的結果準確、符合預期且不會引入其他問題至關重要。

建立和使用資料範本

確保人工智慧模型的輸出與其預期用途緊密相關的一個好方法是使用資料範本。這樣可以確保每次使用人工智慧模型時,它都能適應以相同方式提供的數據,從而在正確的背景下提供一致且準確的結果。

限制反應和結果的範圍

對人工智慧模型施加更多限制有助於將潛在結果縮小到所需的範圍。這時,過濾工具和閾值就派上了用場,它們為人工智慧模型提供了必要的邊界,使其分析和產生始終保持在正確的軌道上。

持續測試和改進模型

正如持續改進對於在不斷變化的世界中開發優秀的軟體至關重要一樣,優秀的AI模型也同樣如此。因此,所有AI模型都應定期進行測試和改進,以便根據資料、需求和可用情境資訊的變化進行重新校準。

建立人工檢查和平衡機制

人工智慧尚未達到完全自主運作的絕對可靠程度,因此確保至少存在一些人為監督至關重要。透過手動檢查人工智慧的輸出,可以識別任何人工智慧的“幻覺”,並確保輸出準確且符合其既定要求。

加強網路安全措施

如果人工智慧的「幻覺」可能引入網路安全漏洞,那麼就應該確保部署最佳的網路安全解決方案。卡巴斯基安全軟體Plus網路安全版標配即時防毒掃描功能,因此可以及時發現並消除任何由人工智慧「幻覺」造成的安全威脅,避免其造成任何不利影響。

相關文章:

什麼是人工智慧幻覺?

人工智慧幻覺會導致虛假或誤導性訊息,從而帶來嚴重風險。了解如何識別和預防人工智慧幻覺。
Kaspersky 標誌

相關文章: