關於 AI 是否終於有了突破達到具有自我意識這件事情。看來未來針對判定的標準來講,應該會有相當相當多的爭論。先前聲稱研發 Google 聊天機器人 LaMDA(Language Model for Dialogue)聊出 感情 斷定「它」有自我意識的工程師 Blake Lemoine。在被帶薪休假「處置」並經過好一陣子的爭論之後,現在則是確認最終仍在調查之後被 Google 給火掉了。繼續閱讀堅信 Google LaMDA AI 已有自我意識的工程師被解僱,依 AI 的建議請律師了(咦)報導內文。
▲圖片來源:Google
堅信 Google LaMDA AI 已有自我意識的工程師被解僱,依 AI 的建議請律師了(咦)
由於絕對有著很明顯的保密條款問題,所以讓人覺得會有被解僱的命運其實並不令人意外 – 甚至光是前一波除了 LaMDA AI 外的「事主之一」Blake Lemoine,只被公司帶薪假處置給予調查的餘地,反而讓人覺得 Google 這樣處置有點意外(就… 沒有馬上就火掉這樣)。
不過這個語言模型 Chatbot 聊天機器人的能力強到讓專業工程師,對 AI 已經擁有自我意識感到深信不疑的事件 – 還提到 LaMDA AI 要他幫忙請律師 。這起事件終究還是導致這位鬧到上媒體版面的 Blake Lemoine 被 Google 給辭退。原因則是因為在爆出了這個事件之後依然持續的違反相關的保密政策。
然後 Blake 表示已經在跟律師諮詢中了(咦,結果是幫自己請律師這樣)。
根據多方媒體的消息,在聲稱 LaMDA AI 已經具有自我意識的事件之後,Google 官方已經有進行過相關的調查,但最終判斷 Blake Lemoine 的說法「毫無根據(wholly unfounded)」。期間也有不少專家發表相關的意見,多數是認為 LaMDA AI 所具備的語言模型技術只是特別擅長跟人聊天,並非真的有了自我意識。
是說,就與我們電腦王阿達團隊先前報導的觀點相同。其實 AI 人工智慧技術發展至今,有專家認為包括 Google 等各公司終究還是遇到的瓶頸;然而當這些專家一方面否認遇到障礙聲稱「就快了」的同時,卻爆出了 LaMDA AI 事件。結果現在的風向又變成極力表示「還沒有」的狀態(跌倒)。
總而言之,至少根據 Google 向 Engadget 網站所發出的聲明可以看出,Google 已經有針對 LaMDA 做了相當嚴謹的評估檢視。對於像是 Blake 的疑慮也有進行進一步調查,並與其溝通嘗試澄清了數個月的時間。即便 Google 認為自己已經在開放文化政策的原則下進行溝通討論,不過終究還是以對方持續違反產品資訊的相關員工與資訊安全規定為由,給予對方「祝福」。
而既然這樣的辭退消息最終還是遍佈了各大媒體,看來正式脫離 Google 的 Blake 應該還會有更多後續的話想聊吧?