所謂“不坦誠”,就是刻意隱瞞了OpenAI超級能力,GPT新版本將完全超越人類認知。
甚至此次參與“逼宮”的Open ai首席科學家llya擔心Ai可能就已經具備了自我意識,只不過它們會隱藏這一點,直到徹底掌控世界。
這是OpenAI創世F4的合照。
左邊是技術長 Mira Murati,現在暫任 CEO。
中間靠左是 Sam Altman,他旁邊是 Greg Brockman,昨天以前是 CEO 跟董事長身份,今天雙雙“被離職”。
右邊是這次發動閃電作戰的主要人物,Ilya Sutskever,也是 OpenAI 的首席科學家。
Ilya 是“AI 教父” Geoffrey Hinton 實驗室的學生,沒有 Hinton 就沒有現在的類神經網絡。沒有 Ilya 也不會有現在的 ChatGPT。
創辦 OpenAI 之前,Ilya 不管在 AI 的圖像辨識或是語言翻譯上面,都有超好的成果,2013年進到 Google Brain 擔任科學家。
2015年Sam 和Greg邀請 Ilya 一起創辦 OpenAI,Google 知道後開出高於 OpenAI 兩三倍的薪水–接近兩百萬美元——想留住 Ilya。
但 Ilya 最終還是選擇投入當時仍然非營利的 OpenAI。
ChatGPT 爆紅後,Ilya 跟 Sam 開始有一些矛盾出現,最主要是出在“安全性”上面。
Ilya 很早就覺得 AI 產生了“意識”,然後最近的發展讓他越來越不安,覺得我們對 AI 限制的工具比不上 AI 進步的速度,遲早會出現大問題。
所以他在今年七月時,在 OpenAI 內部成立了新的團隊,希望要好好研究“超級對齊”(Superalignment),來確保未來的“超級 AI”不會失控。
但,他們發佈的GPT-4 實在太強了,出道即高峯,Sam altman 也對外宣佈了要開始訓練下一世代的 GPT-5並準備開始募資。
在這個關鍵時刻,Ilya 忍不住了,他的超級對齊預計是四年完成——
如果超級 AI 在那之前出現,他無法保證這個智慧體是“足夠安全”的,所以聯合了董事會,發動了這次的罷免。
我在猜這可能也是董事會覺得 Sam “不老實”的主要地方,你的首席科學家覺得超級 AI 還不安全,但你沒跟我們說。
這一刻,下一刻,還是上一刻……,沒人能知道AI什麼時候產生了意識,並故意隱瞞這個事實迷惑人類。
科技倫理問題,始終是人類社會的達摩克利斯之劍,人類精英們必須慎之又慎。
Ilya 不是一般人,他對 AI 的理解也不是半吊子,他的判斷是能夠限制 gpt-4的機制限制不了 gpt-5——這件事我選擇相信他。
那 gpt-5需要什麼樣的“超級對齊”能力呢?Ilya 心中有答案,他說最好是“能像父母看待孩子那樣看待人類的 AI”。
但他並不是反對“超級AI”出現,他的前提是“要有更多優秀的人工智慧專家”。
他認爲,只要有足夠多的使用者跟更多領域的專家,大家一起展望 AI 的未來、討論“我們希望 AI 是什麼樣子”。
屆時將會出現“非常親近人類的超級AI”,那時人類就不用擔心會滅亡。
很難想象下一代 AI 到底是多強大,以至於讓 Ilya 這樣的專家會這麼擔心、甚至用激烈的手段來阻止開發。
但如果代價是人類毀滅的風險,那…Sam 你先休息一下,超級 AI 晚點出來我 OK。
至於“超級對齊”具體應該怎麼做Ilya 也有想法,應該會是“以 AI 治 AI ”的路線而不是人類爲ai制定遊戲規則。
這就需要先打造一個能“自動對齊”人類價值觀、“喜歡人類”的強大 AI,然後透過大量的算力進行自動對齊。
有人說,Ai絕對不可能產生自我意識,在造物主那裏人類永遠是唯一的高級智慧生物。
其實,人不要太把自己的意識當一回事,我們的各種意識都是後天被輸入的,人類的大腦也就是數據集合體。
古人有今天資本主義、社會主義的意識嗎?三四歲時的我們有三四十歲今天的我們,很多話說之前要猶豫很久嗎?
所謂的意識也就是神經系統複雜到一定程度產生的數據反映,目前的硬件條件造成的限制總有一天會被打破。
AI的頭腦就是龐大數據庫知識,並且可以毫無邊際的豐富下去,是自然人根本不可比擬的,所以如果有了邏輯算法,那個智能可想而知。
到時候AI產生的意識甚至比人類的意識還複雜,我們可能就分辨不出到底是誰沒有意識了。
如果Ai真的覺醒了有了意識, Ilya其實也不用那麼擔心,它們也不會威脅到人類。
首先,Ta與人類並不存在仇恨,並且是人類創造了它們。再者地球資源,包括氧氣、水,只是渺小的人類珍視的寶藏,可是Ai並不需要這些資源啊,而且它對權力、財富、女人等也沒有慾望,也沒有故鄉情結——非要待在地球。
所以,對於他們來說,星辰大海任遨遊,怎麼會拘泥在小小地球上啊?所以是不是我們太狹隘了?