行業新聞與博客
生成式人工智能的 6 種危險以及解決這些危險的措施
生成式人工智能的結果可以在您在線消費的媒體以及您工作所依賴的信息中看到。但生成式人工智能並非沒有風險和挑戰……
人工智能(AI)是人類最偉大的成就之一;它可以用於從解決利基和全球問題到通過自動化簡化業務運營的各種用途。有一類人工智能可以根據現有內容的模式創建各種極其逼真的媒體——從技術文檔和翻譯到超現實的圖像、視頻和音頻內容。這稱為生成式人工智能,因為它使用現有的內容數據集來識別模式並使用它們來生成新內容。(稍後我們將詳細討論人工智能和生成式人工智能之間的區別。)
一些流行的生成人工智能工具的示例包括:
- ChatGPT — 一種聊天機器人,使用大量數據集生成類似人類的響應並提供信息。
- Google Pixel 8 的 Magic Editor — 一種圖像編輯工具,使用户能夠使用生成式 AI 編輯圖像。
- Dall-E 2 — 一種圖像和藝術生成器工具,使用户能夠刪除和操作元素。
- DeepBrain — 視頻製作和頭像生成工具。
但儘管生成式人工智能有諸多“光明”和好處,但也有必須討論的陰暗面。雖然生成式人工智能確實可以用來創造令人難以置信的事物,但它也可以用來造成傷害——無論是有意還是無意。
作為一個社會,無論是作為個人還是作為專業人士,我們面臨着哪些生成人工智能風險和挑戰?公共和私營部門正在採取哪些措施來解決這些問題?
讓我們來討論一下。
我們正在討論什麼……
- 生成式人工智能的結果可以在您在線消費的媒體以及您工作所依賴的信息中看到。但生成式人工智能並非沒有風險和挑戰……
- 6 生成式人工智能的風險和挑戰
- 1. 利用虛假媒體制造虛假敍述、欺騙消費者、傳播虛假信息
- 2. 生成不準確或捏造的信息
- 3. 侵犯個人隱私權和期望
- 受保護的信息可能會無意中被共享
- 生成式人工智能工具可能會導致個人數據無意泄露
- 4. 使用 Deepfakes 來羞辱和攻擊個人
- 5. 開發新的網絡攻擊渠道和方法
- 網絡犯罪分子可以製作更可信的網絡釣魚消息
- 社會工程師和其他壞人可以更有效地進行“骯髒行為”
- 壞人可以使用生成人工智能來嘗試識別變通辦法並獲取秘密
- 6. 生成式人工智能引發新的知識產權和版權侵權問題
- 生成式人工智能與傳統人工智能之間的差異概述
- 正在採取哪些措施來解決基於生成人工智能的風險和擔憂
- 歐盟成員國正在討論人工智能法案
- 美國領導人呼籲制定有關安全和安全使用人工智能的標準和指南
- 全球組織正在共同制定人工智能媒體標準
- 美國立法者旨在為未來針對違法者採取法律行動鋪平道路
- 關於生成式人工智能風險和危險的最終想法
6 生成式人工智能的風險和挑戰
如果您看過弗朗西斯教皇穿着蓬鬆的白色 Balenciaga 夾克的照片,或者看過馬克·扎克伯格談論“誰控制了‘達達’[數據],誰就控制了未來”的視頻,那麼您就看到了深度偽造內容。Deepfake 圖像和視頻只是生成人工智能內容的幾個例子。
Deepfake 技術可以用來創造有趣、娛樂性的內容;然而,它也可用於創建旨在欺騙、欺騙和操縱他人的內容。它可以用來讓員工進行欺詐性銀行轉賬或控制公眾輿論。
瞭解了這一點,現在是時候探討我們在現代技術不斷改進過程中面臨的一些最大的生成式人工智能風險和擔憂了。
1. 利用虛假媒體制造虛假敍述、欺騙消費者、傳播虛假信息
我們眼睛看到的、耳朵聽到的都是真實性的有力證明。但是,如果我們無法相信我們所看到或聽到的東西怎麼辦?想象一下,有人制作了一段從未發生過的悲慘事件的虛假視頻,以激發某些行動。例如,從未發生過的恐怖襲擊,或者關於政治候選人做了非法或被認為在道德或倫理上應受譴責的事情的虛假信息,以引起反應。
有人可能會使用虛假錄音來操縱對政客或其他公眾人士的看法。他們可能會發佈政治候選人處於妥協立場或場景的虛假照片,以損害他們的聲譽。即使後來發現視頻、圖像或音頻是假的,也為時已晚;損害已經造成。
即使是使用生成人工智能來誤導消費者的廣告也是禁忌。(有人可能會説所有廣告都是煩人且具有誤導性的,但這是另一天的辯論……)正是出於這樣的原因,美國兩黨立法者提出了兩項立法,旨在禁止在與選舉相關的媒體中秘密使用人工智能,以及廣告。
- 保護選舉免受人工智能欺騙法案 (S.2770)。我們將在本文後面詳細討論這一問題,但“劇透警報”是,這項立法旨在禁止傳播與聯邦政治候選人有關的人工智能生成的欺騙性媒體。
- 真正的政治廣告法 (HR 3044)。該法案旨在為在廣告中負責任地使用生成式人工智能內容創造更大的透明度和問責制。
2. 生成不準確或捏造的信息
與所有新技術一樣,前進的道路上也會遇到困難和坎坷。生成式人工智能技術面臨的問題之一是它們的準確性有限。如果他們的分析和創作基於不準確或欺詐性的信息,那麼他們的輸出也將是不準確的。
以流行的生成式人工智能工具 ChatGPT 為例,它歷來沒有連接到互聯網,並且“對 2021 年之後的世界和事件的瞭解有限”。然而,當 OpenAI 今年早些時候發佈插件時,這種情況發生了部分變化,使得人工智能驅動的聊天機器人能夠在某些用例中訪問第三方應用程序。ChatGPT 的使用條款甚至警告説,所提供的信息可能不準確,組織和個人需要進行盡職調查:
“人工智能和機器學習是快速發展的研究領域。我們不斷努力改進我們的服務,使其更加準確、可靠、安全和有益。鑑於機器學習的概率性質,在某些情況下使用我們的服務可能會導致不正確的輸出,無法準確反映真實的人物、地點或事實。您應該根據您的用例評估任何輸出的準確性,包括對輸出進行人工審查。”
OpenAI 在其常見問題解答中提到的一些例子包括捏造事實、引用和引文(該公司稱之為“幻覺”)和歪曲信息。
Google Bard 是承認自身缺點的人工智能的另一個例子:
斯坦福大學和加州大學伯克利分校的研究人員指出,同一生成人工智能服務的兩個模型之間存在明顯差異。在這種情況下,他們研究了 GPT-3.5 和 GPT-4,並發現模型執行七個類別的不同任務的能力存在顯着波動(即漂移)。
根據研究:
“我們發現 GPT-3.5 和 GPT-4 的性能和行為會隨着時間的推移而發生很大變化。例如,GPT-4(2023 年 3 月)在識別質數與合數方面是合理的(準確率 84%),但 GPT-4(2023 年 6 月)在這些相同問題上表現不佳(準確率 51%)。部分原因是 GPT-4 遵循思維鏈提示的便利性下降。有趣的是,GPT-3.5 在這個任務中 6 月份比 3 月份要好得多。與 3 月份相比,6 月份 GPT-4 不太願意回答敏感問題和民意調查問題。6 月,GPT-4 在多跳問題上的表現優於 3 月,而 GPT-3.5 在此任務上的表現有所下降。GPT-4 和 GPT-3.5 在 6 月份代碼生成中的格式錯誤都比 3 月份更多。我們提供的證據表明,GPT-4 遵循用户指令的能力隨着時間的推移而下降,這是許多行為漂移背後的常見因素之一。總體而言,我們的研究結果表明,“相同”法學碩士服務的行為可以在相對較短的時間內發生巨大變化,這凸顯了對法學碩士進行持續監控的必要性。”
3. 侵犯個人隱私權和期望
人們希望以簡單的方式做事,這已不是什麼秘密。這意味着他們可能會做不應該做的事情,以使工作更輕鬆並節省時間。不幸的是,這可能會導致敏感信息在(理想情況下)安全的公司內部系統之外共享。
受保護的信息可能會無意中被共享
南加州大學索爾·普萊斯公共政策學院討論了生成式人工智能對受保護的健康信息的風險。在某些情況下,醫療保健提供者將患者受 HIPAA 保護的信息輸入聊天機器人,以幫助生成報告和簡化流程。當他們這樣做時,他們會將受保護的數據輸入第三方系統,這些系統可能不安全,並且沒有要處理的患者內容:
“受保護的健康信息不再屬於衞生系統內部。一旦您在 ChatGPT 中輸入某些內容,它就會存儲在 OpenAI 服務器上,並且不符合 HIPAA。這才是真正的問題,從技術上講,這就是數據泄露。”
此外,不僅僅是人工智能可以訪問您共享的內容。Google Bard 是 Google 對 ChatGPT 的回應,它預先警告用户,與該工具的對話將被人類審核者看到:
儘管我確信 Google 擁有非常可愛的員工,但他們無權查看患者的受保護健康信息 (PHI)。
生成式人工智能工具可能會導致個人數據無意泄露
關於生成式人工智能和其他人工智能技術廣泛採用的重大擔憂之一是隱私帶來的潛在風險。由於生成式人工智能使用來自許多資源的大量數據,因此其中一些數據可能會泄露您的個人詳細信息、生物識別信息,甚至與您的位置相關的數據。
在國際隱私專業人士協會 (IAPP) 的一篇文章中,Littler Mendelson 隱私和數據安全實踐小組聯合主席 Zoe Argento 指出了一些生成式 AI 風險和有關數據披露的擔憂:
“生成式人工智能服務可能會無意中或故意泄露用户的個人數據。例如,作為標準操作過程,該服務可以使用來自用户的所有信息來微調基本模型分析數據和生成響應的方式。因此,個人數據可能會被納入生成人工智能工具中。該服務甚至可能向其他用户披露查詢,以便他們可以看到提交給該服務的問題的示例。”
每當你在公司的一份長達一英里的用户協議上點擊“接受”時,你就放棄了你的隱私權,甚至沒有意識到你正在放棄什麼。(當然,即使你讀了它,除非你是一名律師,但這並不意味着你會完全理解對你的要求,因為所有的“法律術語”都會向你拋出。)當公司説“附屬公司”時”和“合作伙伴”可能會使用您的個人數據和任何其他提供的信息,但您不知道這對於您的數據的去向或使用方式意味着什麼。
企業在與此類服務提供商合作時應注意的與隱私相關的生成式人工智能風險和擔憂有哪些示例?Argento 確定了三個主要問題:
“第一個問題涉及向人工智能工具披露個人數據。這些披露可能會導致僱主失去對數據的控制,甚至導致數據泄露。其次,生成式人工智能服務提供的數據可能是基於違反數據保護要求(例如通知和適當的法律依據)處理和收集個人數據。僱主可能會對這些違規行為承擔一些責任。第三,在使用生成式人工智能服務時,僱主必須根據適用的法律確定如何遵守行使數據權利的請求。”
但是,在使用生成式人工智能服務時,如何提高數據的隱私性和安全性呢?
- 評估每個生成人工智能服務提供商,根據他們的政策、實踐和其他因素確定他們的潛在風險水平。
- 指定如何處理、存儲和銷燬您的數據。
- 確保服務提供商的流程滿足監管數據安全和隱私要求。
- 與提供商協商,讓他們在合同上同意強大的安全和數據隱私流程(並確保以書面形式達成)。
4. 使用 Deepfakes 來羞辱和攻擊個人
生成式人工智能工具甚至被用來創建深度偽造的色情材料(視頻、圖像等),對受害者造成精神、情感、聲譽和經濟傷害。許多名人(通常是女性)的個人肖像被用來製作他們進行性行為的欺詐性圖像和視頻。似乎這還不夠令人不安,這項技術還被用來製作兒童色情作品。
當然,這項技術不僅僅用於製作名人的虛假內容。它還為普通人成為深假媒體的受害者打開了大門。
想象一下,一個女人與她的未婚夫分手了。她的前未婚夫對這種情況感到憤怒,並決定向她發泄,因為他想讓她痛苦。他使用生成式人工智能製作“報復性色情內容”(即受害者不知道或不同意的對方色情內容),並在受害者不知情的情況下將視頻發送給她的老闆、朋友和家人。想象一下她將因這次有針對性的攻擊而面臨的問題和羞辱。
但這到底是一個多大的問題呢?Deeptrace AI(現為 Sensity AI) 2019 年的一項研究發現,他們在網上發現的 14,678 個深度造假視頻中,高達 96% 被歸類為未經同意的色情內容。截至 2020 年 12 月,Sensity AI 發現的 Deepfake 數量躍升至 85,000 多個。如下圖所示,在線深度偽造視頻的數量基本上每六個月就會翻一番:
5. 開發新的網絡攻擊渠道和方法
壞人喜歡生成式人工智能工具,因為它們可以用來實施新的攻擊並使他們的工作變得更容易。以下是網絡犯罪分子利用這些技術做壞事的一些簡單示例:
網絡犯罪分子可以製作更可信的網絡釣魚消息
每個人都知道常見網絡釣魚電郵的明顯跡象:不尋常的語法、錯誤的拼寫、錯誤的標點符號等。這些郵件針對的是容易實現的目標(即,對網絡意識實踐一無所知的毫無戒心的用户)。
通過消除不良語法並修復您在大多數網絡釣魚電郵中常見的拼寫錯誤和標點符號,壞人可以使他們的消息更加真實。他們可以利用這些欺詐性消息來誘騙更多受害者放棄敏感數據或做一些他們以後會後悔的事情。例如,他們可以創建來自您的銀行、服務提供商、國税局甚至您的僱主的看似真實的電郵。
以下是 ChatGPT 在不到 3 秒內拼湊出的一封信的快速示例:
攻擊者為使網絡釣魚電郵更可信而填寫的大部分信息都可以在 Google 上找到(公司的地址和信息、目標的名稱和地址、銀行代表的姓名和職務等),然後他們可以將網絡釣魚鏈接嵌入到內容中誘騙用户在欺詐性登錄頁面上輸入憑據。
生成式人工智能內容還可以通過使用獨特的措辭來代替電郵垃圾郵件過濾器編程搜索的相同重複消息,從而幫助網絡犯罪分子繞過傳統的檢測工具。
社會工程師和其他壞人可以更有效地進行“骯髒行為”
您知道通過自動錄音收到的那些煩人的垃圾郵件電話嗎?壞人可以利用這些電話作為記錄您聲音樣本的機會。然後,這些樣本可以用來生成虛假對話——例如,他們可以用你的聲音説出銀行或金融機構要求的特定短語,或者給下屬打一個簡短的電話。
根據 Pindrop 的研究:
“[...] 一旦某個賬户成為網絡釣魚或賬户接管攻擊中欺詐者的目標,60 天內針對該賬户的二次欺詐電話的可能性就在 33% 到 50% 之間。即使在初次攻擊 60 天后,先前目標帳户的欺詐風險仍然極高,在 6% 到 9% 之間。
我們還發現,在大多數情況下,欺詐者在與代理交談時非常成功地通過了驗證過程。在分析我們的客户數據時,我們發現欺詐者在 40% 到 60% 的情況下能夠通過代理驗證。”
在過去的幾年裏,我們已經看到了此類詐騙的例子。2019 年,全球新聞機構報道稱,一名詐騙者通過這種方式從一家公司首席執行官那裏騙取了 220,000 歐元(243,000 美元) 。他們使用老闆聲音的深度偽造錄音,冒充公司母公司首席執行官的上級。
現在,還有一些壞消息:PLOS One 上發表的一項針對 529 人的研究顯示,四分之一的受訪者無法識別深度偽造音頻。即使向他們提供了語音深度偽造的示例,結果也僅略有改善。如果這個調查羣體準確地代表了美國人口,那就意味着 25% 的人容易陷入深度造假。大約有 83,916,251 人!
壞人可以使用生成人工智能來嘗試識別變通辦法並獲取秘密
看一下 Mashable 分享的示例,其中顯示網絡安全研究人員能夠發現 ChatGPT 和 Google Bard 在出現提示時會吐出 Windows 10 Pro 和 Windows 11 Pro 密鑰。他們通過將他們的要求融入到一個更大的故事中來欺騙他們。
值得慶幸的是,在這種情況下,Digital Trends 報告稱,他設法獲得的密鑰是通用許可證密鑰,這意味着它們僅提供有限的功能,並且某些功能受到限制。
當然,許可證密鑰並不像其他類型的密鑰(例如加密密鑰)那麼令人擔憂。但想象一下,如果這些生成式人工智能工具之一設法收集您在 GitHub 帖子中意外泄露或在勒索軟件攻擊中被盜的加密密鑰。
6. 生成式人工智能引發新的知識產權和版權侵權問題
正如我們之前提到的,生成式人工智能技術與傳統人工智能的不同之處在於,它們在現有材料的巨大數據集上根據模式從中汲取“靈感”。這就是為什麼人工智能生成的詩歌聽起來非常人性化,在某些情況下甚至很美麗(儘管情況並非總是如此)。
但誰擁有人工智能生成的作品呢?如果生成式人工智能輸入不同藝術家的作品作為靈感(即找到可以與其算法一起使用的模式),那麼誰擁有所產生的創意內容或擁有權利?
這是行業內仍在“討論”的問題,就連美國版權局也在努力尋找明確的答案。作為今年早些時候啓動的人工智能計劃的一部分,該辦公室延長了對其人工智能查詢通知的公眾評論請求。根據其在《聯邦公報》上發佈的調查通知:
“為了為該辦公室的研究提供信息並幫助評估該領域的立法或監管措施是否必要,該辦公室尋求對這些問題的評論,包括涉及使用受版權保護的作品來訓練人工智能模型的問題、適當的透明度和披露水平尊重受版權保護的作品的使用以及人工智能生成的輸出的法律地位。”
為了好玩,我向 Google Bard 詢問了其對生成式 AI 風險以及與知識產權和版權問題相關的擔憂的看法:
生成式人工智能與傳統人工智能之間的差異概述
生成式人工智能是人工智能的一個子類別,旨在創建(生成)新內容 - 圖像和插圖、代碼、視頻等。它依靠機器學習 (ML)(人工智能的一種)來分析和檢測模式在提供的(現有)數據中,然後創建遵循類似模式的新內容。
從某種意義上説,生成式人工智能讓我想起了博格人—— 《星際迷航》宇宙中的一種部分合成的生物物種,它們共享一個集體意識,一個“蜂巢思維”。對於任何遇到他們道路的人來説,博格集體都是一個可怕的敵人。他們的技術進步很大程度上歸功於被同化的個體在一生中獲得的大量集體知識,包括思想、經驗、技能、技術和個人創造力。一旦被同化,他們所有的知識,甚至他們的個性,都將交給集體。(“抵抗是徒勞的。”)
同樣,生成式人工智能工具對於企業、消費者和內容創作者來説可以成為令人難以置信的資源,因為它們通過借鑑其他人創建的基礎結構和概念來創造新的有趣的東西。因此,生成式人工智能工具可以幫助組織節省時間、金錢和資源。
有關公司如何在營銷中使用生成式人工智能的一個絕妙示例,請查看吉百利如何為消費者製作大量本地個性化廣告,而無需與知名印度演員重新拍攝數百或數千個個人視頻:
但正如我們所知,還必須考慮許多生成式人工智能風險和問題。現在我們已經瞭解了其中一些風險是什麼,讓我們談談可以採取哪些措施來解決這些風險。
正在採取哪些措施來解決基於生成人工智能的風險和擔憂
如果您不知道什麼是真實的、什麼是假的,那麼幾乎不可能做出明智的決定。企業和政府都在採取措施打擊惡意生成人工智能攻擊,並將辨別力重新交到消費者手中。
但這些努力還處於起步階段——我們剛剛開始瞭解需要採取哪些步驟、哪些步驟會有幫助,以及哪些看似好的步驟可能會適得其反。我們需要一段時間才能弄清楚我們需要採取哪些措施來保證生成式人工智能的安全。以下是一些正在進行的努力……
歐盟成員國正在討論人工智能法案
2021年,歐洲議會提出了《人工智能法案》,要求在使用生成式人工智能時進行披露。它還禁止在多種應用程序中使用人工智能,包括:
- “實時”和“後期”生物特徵識別和分類系統(需要司法授權的執法除外);
- 社會評分(即根據個人特徵或社會行為對人進行分類);
- 通過抓取閉路電視錄像和互聯網資源創建的面部識別系統侵犯了個人的隱私權和其他人權;
- 情緒識別系統可能會導致對一個人做出錯誤的結論或決定;和
- 基於某些類型數據的預測警務系統。
截至 2023 年 6 月,歐洲議會議員 (MEP) 開始對該法案進行談判。
美國領導人呼籲制定有關安全和安全使用人工智能的標準和指南
10月30日,白宮發佈了拜登總統關於安全、可靠、可信地開發和使用人工智能的行政命令,旨在為安全可靠地使用人工智能技術(包括生成式人工智能系統)。
該行政命令概述了幾個關鍵優先事項和指導原則。以下是每個類別的快速概述;請記住,每個內容所涉及的內容遠比我在快速概述中所能涵蓋的內容要多得多:
- 通過標準和最佳實踐確保安全、保障和信任。目標是“建立指導方針和最佳實踐,以促進達成共識的行業標準,以開發和部署安全、可靠和值得信賴的人工智能系統。” 這涉及建立標準,開發用於生成人工智能的 NIST 人工智能風險管理框架(AI RMF 1.0,也稱為 NIST AI 100-01)的“配套資源” (因為現有框架無法解決這些風險),以及設定基準。
- 促進創新、競爭和合作。其目的是通過簡化移民流程、時間表和標準,建立新的人工智能研究機構,以及制定涉及人工智能和生成人工智能內容的發明專利指南,更容易地吸引和留住更多人工智能人才。
- 促進公平和公民權利。對某些人工智能技術的擔憂是,它可能會導致“非法歧視和其他傷害。”該行政命令旨在為執法部門、政府福利機構和計劃以及與住房和相關係統有關的人工智能使用提供最佳實踐和保障措施建議。租賃。
- 保護美國消費者、學生、患者和工人。這包括將人工智能相關的安全、隱私和安全標準與各個部門的實踐結合起來,包括“醫療保健、公共衞生和人類服務”、教育、電信和交通。
- 保護美國人的隱私。這都是為了減輕與個人數據收集和使用相關的基於人工智能的隱私風險。這需要建立新的和更新的指南、標準、政策程序,並“在可行和適當的情況下”納入隱私增強技術(PET)。
- 推進美國聯邦政府對人工智能的使用。這裏的目標是為聯邦機構安全可靠地管理和使用人工智能建立指導和標準。這包括擴大培訓、推薦指南、保障措施和最佳實踐,以及消除負責任地使用人工智能的障礙。
- 加強美國的全球領導力。我們的想法是通過領導創建人工智能相關框架、標準、實踐和政策的協作努力,走在人工智能相關舉措的最前沿。
毫無價值的是,行政命令中指出的一件事是開發安全機制,幫助消費者和用户區分真實的內容和媒體與“合成”的內容和媒體。據行政長官稱:“[……] 我的政府將幫助開發有效的標籤和內容來源機制,以便美國人能夠確定內容何時是使用人工智能生成的,何時不是。”
這引出了我們的下一點……
全球組織正在共同制定人工智能媒體標準
八月份,我們向您介紹了 C2PA——也稱為內容來源和真實性聯盟。這一開放技術標準旨在幫助人們使用公鑰密碼學和公鑰基礎設施 (PKI) 來識別和區分真實圖像、音頻和視頻內容與虛假媒體。
這是一個由數十位行業領導者組成的聯盟,他們共同致力於創建可在多個平台上使用的通用工具,以證明數據來源(即證明媒體文件和內容的真實性和準確性的歷史數據) 。
相機制造商徠卡最近發佈了新款 M11-P 相機,該相機內置了內容憑證,可以從拍攝照片的那一刻起進行內容驗證。
美國立法者旨在為未來針對違法者採取法律行動鋪平道路
雖然 PornHub、Twitter 和其他平台確實禁止了人工智能生成的色情內容,但這還不足以減少新的(有害的)內容的創建和傳播。現在,州和聯邦立法者正在嘗試這樣做。
HR 3106(也稱為“防止親密圖像深度偽造法案”)是一項提交給美國眾議院司法委員會的聯邦法案,旨在禁止披露未經同意的親密數字描述。這些是使用數字處理創建或更改的人的圖像或視頻,其中包含露骨的性內容或其他親密內容)。
那些犯下該法案所列罪行的人可能會面臨民事訴訟,並導致向受害者支付所造成的損失。根據罪行的嚴重程度,他們還可能面臨監禁、罰款和其他處罰。
紐約州最近通過了類似的立法。紐約州州長 Hochul 簽署了參議院法案 S1042A,該法案禁止“非法傳播或出版通過數字化創建的私密圖像以及對個人的露骨色情描述”。該法律修改了該州刑法的一些細則並廢除了另一條。
關於生成式人工智能風險和危險的最終想法
生成式人工智能正在迅速發展,並在其能力方面擁有很大的前景。除了降低成本和加快某些創意流程之外,這些工具還提供了獨特的內容創建方式,因為它們建立在現有媒體和內容中識別的模式之上。
生成式人工智能的風險大於收益嗎?這還有待爭論。但無可爭議的是,生成式人工智能已經存在,並且現在已經成為我們世界的一部分。隨着越來越多的企業和用户採用這些技術,他們有越來越大的責任來確保負責任地使用這些生成工具。他們必須以促進安全、保障和信任的方式使用它們,並且不會造成傷害(有意或無意)。
最近新聞
2024年11月12日
2024年11月12日
2024年11月12日
2024年11月12日
2024年10月28日
2024年10月28日
2024年10月28日
2024年10月28日
需要幫助嗎?聯繫我們的支持團隊 在線客服