現階段AI領域,波詭雲譎。一邊大模型的多模態能力一天一個樣,越來越強悍;另外一邊,看着AI越來越聰明,感覺人類智慧生物的地位不保,开始尋求監管AI,避免發生威脅人類生存的危機出現。
AI頭號種子GPT—4自然是首當其衝,爲此ChatGPT之父Sam Altman赴白宮,闡明自己的立場和觀點。也配合政府制定AI監管的條例和措施。
今天,又一則有關AI威脅的消息在全網瘋傳,其中不乏AI領域的專家和權威。
根據彭博社報道,非營利組織人工智能安全中心(Center for AI Safety)本周二發布簡短聲明:“降低人工智能滅絕的風險,應該與其它社會規模的風險(如大流行病和核战爭)一樣,成爲全球的優先事項”。
包括 Sam Altman 在內 350 位 AI 權威都籤署了這封聯名公开信,並對當前正在开發的 AI 技術可能會對人類構成生存威脅擔憂。
此外還有另外兩家AI領先公司的CEO籤署了這一公开信:Google DeepMind 首席執行官 Demis Hassabis和Anthropic 的首席執行官 Dario Amodei。
其中還有 Geoffrey Hinton 和 Yoshua Bengio 兩位人工智能的“教父”。
把AI和流行病、核战爭相提並論,真有一種《毀滅者》的既視感。
然而已經不是第一次出現這種AI威脅的聲音了。
在上周,Sam Altman 和另外兩位 OpenAI 的高管提出應該建立類似國際原子能機構這樣國際組織來安全監管 AI 的發展。
早在3月,由馬斯克等人牽頭籤署的一份公开信,就表示了社會對AI存在的恐懼心理。
該信呼籲所有的 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型,暫停時間至少 6 個月,爲的就是把這些可怕的幻想扼殺在搖籃之中。
對於這一系列呼籲和公开信,一些專家認爲它過分強調了人工智能帶來的風險,有些人則認同存在這種可能性,但不同意信中的建議措施。
安全人工智能中心的執行主任丹·亨德裏克斯(Dan Hendrycks)告訴《紐約時報》,5月30日發布的聲明很簡潔,沒有提出解決人工智能威脅的任何潛在方法,這是爲了避免進一步產生分歧。
他說:“我們不想爲此推出一個包含30種潛在幹預措施的大菜單。如果這樣做,它會淹沒主要信息。”
標題:突發!AI恐將滅絕人類,350名權威籤署聯名信
地址:https://www.utechfun.com/post/220598.html