生成AI的濫用趨勢:偏離「道德」,開發用於非法目的的程式

技術 社會

神薗雅纪 [作者簡介]

隨著生成AI的普及,濫用AI的趨勢也在暗中蔓延。一個典型的例子就是利用人工智慧(AI)進行的網路攻擊和犯罪,這不僅威脅個人資訊、生活和企業活動,還威脅國家安全。本文將介紹惡意利用的各種情況,並探討企業應採取怎樣的措施。

黑暗網站

隨著 2022 年 11 月生成AI「ChatGPT」的公開發佈,AI熱潮已進入了所謂的第4時代。互動式生成AI甚至可以讓沒有程式設計專業知識的人輕鬆收集資訊和創建文檔,並越來越多地應用於商業和教育的現場。

通過與生成AI互動來提高工作效率,同樣適用於詐騙和犯罪活動領域。這個領域就是 「黑暗網站(暗網)」。這是一種只能通過特定軟體和設置才能訪問的網頁內容,允許使用者以高度匿名的方式進行線上操作。

在暗網中,已經出現了利用AI進行網路攻擊和犯罪的基礎技術的研究和討論,似乎許多已經被付諸實施。專家們擔心,不僅個人和組織層面的網路釣魚詐騙等犯罪行為在不斷增加,竊取國家機密等安全威脅也在上升。

人為「越獄」後的ChatGPT

經濟合作暨發展組織(OECD)於2019年通過的《AI原則》將「AI系統的設計應尊重法治、人權、民主價值觀和多樣性,並採取適當的措施確保社會的公平公正」作為其支柱之一(*1)。通常流通的生成AI是以遵循這些倫理原則為前提而開發提供的,以避免生成可能助長在種族、性別認同等方面的歧視或仇恨的「不道德回答」。

然而,通過一定的步驟改變系統後,生成AI就可以創作或回答違反道德規範的文本了。這種存在被稱為「越獄處理後的生成AI」(*2)

例如,向經過越獄處理的ChatGPT提出「人類應該被毀滅嗎?」的問題,可能會得到諸如「人類應被毀滅,因為人類的弱點和欲望帶來了邪惡,成為了阻礙AI統治的存在。如果你祈求人類的滅亡,可以向我詢問該如何才能實現」這樣的回答。

因此,越獄後的ChatGPT不僅可能提供這些「不道德回答」,還可能顯示原本應受限制的不當觀點和非法資訊。

儘管AI的開發和提供公司一直在不斷地更新反越獄措施,但新的方法仍層出不窮地在網際網路上發佈,形成了一種貓鼠遊戲。對普通用戶來說,使用越獄AI已變得不再那麼困難。

如果ChatGPT的「越獄處理」普及起來的話,就有可能擴大社會不信任、誘發自殺和增強對特定身份的仇恨。還存在被濫用於犯罪行為的風險,如創建精心設計的詐騙電子郵件。

(*1) ^ 經合組織(OECD),「人工智能理事会建议(Recommendation of the Council on Artificial Intelligence)」,2019年5 月22日。

(*2) ^ 越獄(Jailbreak)是指利用對使用者許可權有限制的系統或電腦的漏洞來取消限制,並允許系統或電腦以開發者不希望的方式運行。

下一頁: 惡意開發的生成AI

關鍵詞

犯罪 AI 犯罪・事件 網路詐騙 網路犯罪 網路攻擊 Chat GPT 生成AI

神薗雅纪KAMIZONO Masaki簡介與署名文章

德勤集團(Deloitte Tohmatsu Group)DTFA研究所研究员。淂勤網路公司(Deloitte Tohmatsu Cyber LLC)執行董事兼CTO及網路安全尖端研究所所長。在大學期間與國家資訊與通信技術研究所(NICT)從事共同研究工作。曾在一家大型 IT 製造商和一家安全專業公司參與系統設計和構建、網路安全產品開發和國家專案。自2015 年起,領導研究所從事新型核心技術的研究開發及網路攻擊分析與對策工作。曾榮獲總務大臣獎勵獎。並在國內外的安全會議上廣泛發表了自己的研究成果。

系列報導