這天看見文友在 DC 上討論 AI,說能畫畫,但現階段還不能參與人際社交。待元宇宙通行後,AI 創造角色混入真人互動再學習我們生活的感覺,門檻就不高了。
之前不時發現很多人對 AI 有某程度上的誤解,大概是科幻電影小說都把 AI 描繪得無所不知無所不能而且擁有自主意識之故吧。
作為工作上經常接觸到實際的 AI 應用和 AI 工程師的貓實在有必要澄清一下。
人類害怕 AI 是正確的,倘使 AI 當真擁有自主意識,貓也相信 AI 第一個便會判定人類是對地球有害的🤣 不過現階段,AI 距離這種自主意識還差很遠很遠。
文友說的人際社交其實早就在現實中進行了,生活上很多應用已滲透 AI,只是大家不知道而已:Amazon 推薦書籍、Netflix 推薦劇集、網購平台推產品全都採用了 AI 大數據分析。
Chatbot 也是社交的一種,銀行跟大機構的 chatbot 很多已轉用 AI 而非真人客服對答,不過現階段 chatbot AI 大都是 machine learning 而非 deep learning,不會自主發問相關的問題(系統主動提問都是有觸發條件的),至於那些沒餵過答案給 training model 的問題,chatbot 還是亂答一通。
貓曾實測某大航空公司的 chatbot,針對疫情下以里數換機票但無法起行的處理,那個 AI 完全無法回答,大概這是非預設場景,AI 便無法應付了。
之前也曾問過 IBM 的 AI 架構工程師一套醫院採用了的 AI 方案,問長遠能否取代放射科科醫生單純在閱讀 X 光片上的工作,答案是只能輔助,無法取代。
沒錯 AI 學習過百萬張圖庫,在處理一些明顯個案時能比真人更準確迅速地診症(人類長時間讀片雙眼會疲勞,有機會出錯)。但面對含糊的個案,AI 不具備相關的醫學知識和經驗進行判斷,還是得交由醫生或放射技師處理,而且目前這套 AI 也只能做到 8X% 的準確率。
文友問:但X光片的不明陰影資深醫師肯定也只能猜,然後安排更多檢查。
不明陰影因為類似的參考比照數據不足,AI 無從判斷如何後續處理,只會標記需人手診症;而資深的放射技師則能按經驗去判定到底用 MRI/CT scan、超聲波抑或 biopsy 才是最有效的應對,這就是 AI 現階段仍無法達致的水平。
人類為了生存就必須努力應對未知的場景,而 AI 的設計本身是目標為本,因此會以大數據分析去學習最有效的「已知」應對方式,所以在常見場景下比人類有效率,但就欠缺應對「未知」的能力。
外行人以為 AI 很神,但往往不知道其實 AI 極度倚靠人類。即使 deep learning 的神經網絡架構能模仿人類的思考流程,但仍極度倚賴 labeled data,而標記圖片或物件這個部分目前必須全人手處理,所以 AI 的智能背後還是很有高的門檻和人力輸入,並不是科幻電影所描繪的那樣。
最少在現階段,AI 的「智能」依然有許多限制。