突發!AI恐將滅絕人類,350名權威籤署聯名信

2023-06-01 18:40:41    編輯: robot
導讀 現階段AI領域,波詭雲譎。一邊大模型的多模態能力一天一個樣,越來越強悍;另外一邊,看着AI越來越聰明,感覺人類智慧生物的地位不保,开始尋求監管AI,避免發生威脅人類生存的危機出現。 AI頭號種子GP...

現階段AI領域,波詭雲譎。一邊大模型的多模態能力一天一個樣,越來越強悍;另外一邊,看着AI越來越聰明,感覺人類智慧生物的地位不保,开始尋求監管AI,避免發生威脅人類生存的危機出現。

AI頭號種子GPT—4自然是首當其衝,爲此ChatGPT之父Sam Altman赴白宮,闡明自己的立場和觀點。也配合政府制定AI監管的條例和措施。

今天,又一則有關AI威脅的消息在全網瘋傳,其中不乏AI領域的專家和權威。

根據彭博社報道,非營利組織人工智能安全中心(Center for AI Safety)本周二發布簡短聲明:“降低人工智能滅絕的風險,應該與其它社會規模的風險(如大流行病和核战爭)一樣,成爲全球的優先事項”。

包括 Sam Altman 在內 350 位 AI 權威都籤署了這封聯名公开信,並對當前正在开發的 AI 技術可能會對人類構成生存威脅擔憂。

此外還有另外兩家AI領先公司的CEO籤署了這一公开信:Google DeepMind 首席執行官 Demis Hassabis和Anthropic 的首席執行官 Dario Amodei。

其中還有 Geoffrey Hinton 和 Yoshua Bengio 兩位人工智能的“教父”。

把AI和流行病、核战爭相提並論,真有一種《毀滅者》的既視感。

然而已經不是第一次出現這種AI威脅的聲音了。

在上周,Sam Altman 和另外兩位 OpenAI 的高管提出應該建立類似國際原子能機構這樣國際組織來安全監管 AI 的發展。

早在3月,由馬斯克等人牽頭籤署的一份公开信,就表示了社會對AI存在的恐懼心理。

該信呼籲所有的 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型,暫停時間至少 6 個月,爲的就是把這些可怕的幻想扼殺在搖籃之中。

對於這一系列呼籲和公开信,一些專家認爲它過分強調了人工智能帶來的風險,有些人則認同存在這種可能性,但不同意信中的建議措施。

安全人工智能中心的執行主任丹·亨德裏克斯(Dan Hendrycks)告訴《紐約時報》,5月30日發布的聲明很簡潔,沒有提出解決人工智能威脅的任何潛在方法,這是爲了避免進一步產生分歧。

他說:“我們不想爲此推出一個包含30種潛在幹預措施的大菜單。如果這樣做,它會淹沒主要信息。”



標題:突發!AI恐將滅絕人類,350名權威籤署聯名信

地址:https://www.utechfun.com/post/220598.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡