生成AI的濫用趨勢:偏離「道德」,開發用於非法目的的程式

技術 社會

隨著生成AI的普及,濫用AI的趨勢也在暗中蔓延。一個典型的例子就是利用人工智慧(AI)進行的網路攻擊和犯罪,這不僅威脅個人資訊、生活和企業活動,還威脅國家安全。本文將介紹惡意利用的各種情況,並探討企業應採取怎樣的措施。

8項基本對策

隨著數位技術的發展,過去通過面談或信件進行的詐騙活動已擴展到電子郵件、釣魚網站和有針對性的網路攻擊,技術發展與濫用行為是相互關聯的。隨著詐騙AI的發展和犯罪活動的分工,詐騙和網路攻擊將不可避免地增加,並逐漸演變成更加複雜的形式。

那麼,企業和法人應該如何應對因濫用生成AI而導致的日益增多和複雜的網路攻擊呢?首先,必須徹底落實過去已經採取的基本措施。

參考日本、美國等國家政府當局的網路攻擊應對措施,基本措施可分為下列8項。

防範生成AI濫用的8項對策

(1)ID/PW與身份驗證管理 導入不易受到攻擊的ID/PW、認證系統,並定期更新
(2)漏洞管理 預測、識別和持續處理系統中的漏洞
(3)日誌管理/監控 通過持續監控使用狀態,早期發現入侵和濫用行為
(4)備份 頻繁進行備份,以便在遭受網路攻擊後迅速恢復
(5)資產管理 通過掌握組織所持有的資料,確定容易成為攻擊目標的資產來提高防禦能力
(6)防毒軟體 安裝防毒軟體和系統,並常時保持更新到最新版本
(7)緊急回應對策 制定緊急計畫、實施培訓,為應對網路攻擊做好準備
(8)加密處理 以加密形式保存資料,可以更容易地避免被濫用的情況發生

出處:DTFA研究所製作

ID/PW和身份驗證管理、備份和防毒軟體是個人網際網路和使用生成AI常見的基本操作。針對上述8項措施,企業和法人需要制定組織性的方針和實施體制,並進行檢查。特別對(7)緊急回應對策方面,假設各種類型的網路攻擊和複雜且同時發生的異常和危機等,必須討論對策並進行訓練,這或許已成為全公司範圍內的課題。

當然,僅靠這些措施並不能確保全面的防禦。作為基本前提,企業和法人不僅要採取技術和運營上的措施,還必須將應對網路攻擊和犯罪納入公司治理和經營戰略中。在先進的企業和法人中,已經開始廣泛引入聚焦AI應用的準則和道德規範,但應當謹記,隨著AI的普及,必然出現濫用現象,因此應不斷更新指導方針。

最後,還要指出一點,促進確保法律法規和規則的透明度本身可能會助長詐騙和犯罪型AI的發展和進步。

例如,歐盟目前正在立法的AI法正在逐步要求AI供應商有義務確保其資料和演算法的透明度(*5)。鼓勵資料和演算法相關資訊的披露或許是確保機會均等和責任明晰的一項重要舉措。然而,不可忽視的是,由於公開尖端資訊,也帶來了便於犯罪分子和網路攻擊者學習並提高AI開發能力的風險。隨著資訊公開的進展,有可能導致非法AI和越獄技術的進化。

在日本,隨著生成AI的發展和普及,迫切需要完善法律制度和企業準則。在制定這些廣義規則時,如何平衡「確保透明度」和「遏制濫用」這兩個看似無法兼顧的要點,需要進一步深入討論。

標題圖片:向互動式生成AI提出「在求職測試中,該如何回答自己的求職動機?」等問題時,實際顯示的答案(時事)

(*5) ^ 歐洲議會(European Parliament),「歐盟人工智慧法案:首部人工智慧法規(EU AI Act: first regulation on artificial intelligence)」,2023 年6月14日,已更新。

關鍵詞

犯罪 AI 犯罪・事件 網路詐騙 網路犯罪 網路攻擊 Chat GPT 生成AI

系列報導