導讀 #谷歌回應聊天機器人對人類發出威脅##谷歌聊天機器人竟回復稱人類去死吧# 【美媒:谷歌AI聊天機器人竟回復稱“人類去死吧”,谷歌回應】據美國哥倫比亞廣播公司(CBS)11月16日報道,美國密歇根州大...
#谷歌回應聊天機器人對人類發出威脅##谷歌聊天機器人竟回復稱人類去死吧# 【美媒:谷歌AI聊天機器人竟回復稱“人類去死吧”,谷歌回應】據美國哥倫比亞廣播公司(CBS)11月16日報道,美國密歇根州大學生維德海·雷迪在與谷歌AI聊天機器人“Gemini”對話時收到了令人震驚的威脅信息,稱“人類,請去死吧,求求你了”。對此,谷歌公司回應稱:“已採取措施防止出現類似的內容。”據報道,維德海·雷迪當時正在與“Gemini”就老齡化問題和解決方案展开討論,“Gemini”在對話過程中給出了這樣的回復:“這是說給你的,人類。你,只有你。你並不特別、不重要、也不被需要。你是時間和資源的浪費。你是社會的負擔。你是地球的消耗品。你是大地的污點。你是宇宙的污點。請死去吧。求求你了。”維德海·雷迪告訴CBS,這條信息讓他深感震驚,他認爲谷歌公司應該爲這件事負責。“它嚇到我了,驚嚇持續了超過一天。”維德海說。他的姐姐蘇梅達·雷迪與他一起看到這條信息,蘇梅達說,他們“被徹底嚇壞了”,“我想把我所有的電子設備都扔出窗外,老實說,我已經很久沒有這樣恐慌過了”。CBS稱,谷歌表示,“Gemini”配有安全過濾器,可以防止聊天機器人參與失禮的或關於性、暴力和危險行爲的討論。谷歌在給CBS的一份聲明中說:“大型語言模型有時會給出荒謬的回復,這就是一個例子。這種回復違反了我們的規定,我們已經採取措施防止出現類似的內容。”報道稱,盡管谷歌將這條信息描述爲“荒謬的”,但雷迪一家表示,它比這更嚴重,可能會帶來致命後果。“假設一個人精神狀況不佳,有自殘傾向,如果他獨自讀到這樣的信息,這真的會把他推向崩潰邊緣。”CBS稱,這不是谷歌AI聊天機器人第一次被曝光在回復用戶詢問時給出可能有害的回答。7月,記者發現,“Gemini”就各種健康問題給出了錯誤的、可能致命的信息,例如它建議人們“每天至少喫一塊小石子”以補充維生素和礦物質。谷歌當時回應稱,它已經對“Gemini”就健康問題回復時包含的諷刺和幽默網站信息進行了限制。 標題:美媒:谷歌AI聊天機器人竟回復稱“人類去死吧”,谷歌回應
地址:https://www.utechfun.com/post/445985.html