AI寫作假新聞鬧出大烏龍 新技術(shù)更需要新監(jiān)管
據(jù)浙江之聲官微消息,2月16日,一則“浙江省杭州市政府3月1號取消機動車依尾號限行”的“新聞”在網(wǎng)上傳開了,這條看起來沒頭沒尾的“新聞”一時間還真讓不少人信以為真了。2月17日,杭州警方證實消息不實,警方已介入調(diào)查。
很快這起烏龍事件的源頭也被找到了,原來是杭州某小區(qū)業(yè)主在群眾討論最近非常熱門的AI聊天機器人chatgpt時,一位業(yè)主開玩笑說自己要用chatgpt來寫一條關于杭州取消限行的新聞稿,隨后將chatgpt生成的文章發(fā)布在了群中。結(jié)果被群內(nèi)不明真相的其他業(yè)主截圖轉(zhuǎn)發(fā)了,因此在網(wǎng)上流傳開來,引起了誤會,該業(yè)主后續(xù)也在群中表示了歉意。
這起烏龍事件引發(fā)了不少網(wǎng)友的討論,從性質(zhì)上來說,這條假新聞屬于謠言,但另一方面,這個錯誤究竟應該誰來負責又引發(fā)了不少網(wǎng)友討論。一方面有觀點認為,應該由截圖的人負責,該業(yè)主已經(jīng)在群里說了自己要用chatgpt來寫個“新聞”,截圖轉(zhuǎn)發(fā)的人沒有看上下文就轉(zhuǎn)發(fā)到公開的網(wǎng)絡平臺,導致了錯誤信息的傳播。另一方面也有觀點認為發(fā)布人也應當承擔責任,如果沒有發(fā)布人的一時興起,用AI來編造了一條像模像樣的假消息,也不會造成群內(nèi)其他人的誤會。
早前就曾有海外研究機構(gòu)對chatgpt寫作表示隱憂,擔心它將會成為謠言制造機。人工智能快速迭代所帶來的一系列倫理、道德問題要如何從法律層面應對解決,似乎也還處于探索的初級階段。2022年我國出臺了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,首次提出來人工智能的算法應當堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經(jīng)濟秩序和社會秩序、侵犯他人合法權(quán)益。
今年1月10日起施行的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動。
AI技術(shù)迭代給監(jiān)管帶來了新的挑戰(zhàn),數(shù)據(jù)安全漏洞帶來的隱私風險如何規(guī)避,AI系統(tǒng)中哪些內(nèi)容應該被列入高風險區(qū),“眼見不為實”的深度偽裝要如何識別,深度偽裝造成的危害要怎么處理,人工智能應當適用怎樣的倫理規(guī)則……2021年,歐盟委員會曾提出人工智能規(guī)則法案,日前亦有消息稱《歐盟人工智能法案》將于三月初進行討論,但該法案的推進遭遇了阻力。
或許就像世界上出現(xiàn)第一輛汽車時一樣,當?shù)谝惠v汽車上路時也曾造成過無數(shù)混亂,但如今也有了完善的交通法規(guī)約束監(jiān)管,車禍雖然仍然無法避免,但一場交通事故背后的權(quán)責劃分卻有法可依。人工智能新技術(shù)就像剛剛誕生的汽車,當新的監(jiān)管方案也上了路,這輛“汽車”才算是穩(wěn)當了。
揚子晚報/紫牛新聞記者 沈昭
《揚子晚報》2023年2月20日A10版
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。