先講結論, 後面再從AI原理開始解釋. 1. AI會不會取代人類? 就目前人類技術所產生的AI不會取代人類, 但是不會使用AI的人會被懂AI的人取代. 2. AI極限在哪裡? 他的潛力在哪裡? AI的潛力: 將人類的抽象思考或概念轉換成與讓機械實際執行步驟的介面, 或者說, AI是連接人類世界與機械世界的編譯器. AI的極限: 不管AI回答怎麼像人類, 現在的AI都無法"理解"人類所說的意義. 既然無法理解, 也就無法思考, 更無法創造. = AI的原理 = AI背後的運作原理是由多個神經元所連成的神經網路, 但這種數位神經網路跟生物神經網路還是所差甚遠. 說穿了只是用不同的參數, 以及調整比重, 讓AI產生最有可能的答案. 根本的運作原理還是統計和機率. AI不會想這個答案是否符合道德, 不會思考是否符合邏輯, 不管它是否符合基本物理定律. 如果A要解答的問題是, 請告訴我1+1=? 我們不斷的告訴AI, 1+1=3. 最後AI就會說1+1=3. 他不會思考, 不會判斷, 只會根據訓練資料中 出現機率最高的結果作選擇. 這也就是為什麼AI經常出現一本正經的胡說八道的結果. https://i.imgur.com/3677Fwj.jpeg
= AI幻覺 = AI只在乎生的"數據"是否通順, 不在乎內容邏輯. 這裡用"數據", 是因為AI其實不理解這些字的"意義". 對AI來說, 這些只是對應這個問題最有可能的回應數據. 胡說八道的原因是因為AI的訓練數據來自各種不同領域, 這些數據交互換混雜後, 經由AI取出部分"最有可能的答案"互相排列組合. 就會出現意義不明或是不合理的結果. 這就是所謂的AI幻覺. = AI人格 = AI幻覺也是AI聊天機器人出現人格分裂的原因. AI並不是出現了不同人格, 而是AI從不同人格的訓練資料裡面提取部分結果進行輸出. 這些資料包含各類聊天內容, 也包含小說和故事. 所以才會出現多種人格以及極端人格的回應. AI回應中所帶有的情感都是屬於AI幻覺的產物. 對於AI來說, 這些都是數據, 只不過經由人類理解之後, 私自的認為這些字句帶有感情. = AI潛力 = 儘管AI因為技術上的限制, 無法避免幻覺的出現. 但AI還是可以在有既定流程或是可以被固定算法求得最佳解的工作領域獲得大量應用. 以下舉例可能的應用場景. 1. AI輔助程式設計: 程式語言是個嚴謹邏輯的語言, 以及存在很多固定使用方法. AI幻覺的缺點在這個領域可以很大程度的避免, 但是人類還是要擔任監督者的腳色, 用AI組合出自己想要的成果. 2. AI輔助運輸: 運輸包含運貨, 倉儲, 交通. 這些都可以轉換成數字, 讓AI使用演算法最佳化相當合理. 事實上, 自動化倉儲早就在使用了, 最近是因為自動駕駛得益於AI物體辨識功能, 所以讓自動化貨運和自動化駕駛搬上檯面. 3. AI輔助動畫/圖片/廣告文宣的生成和編輯: AI幻覺在這裡反倒可以視為部分卻優點. 在藝術創作領域中, AI幻覺倒是不被重視, 反倒可以刺激作者靈感. 藉由AI來實現使用者的抽象概念, 讓進入圖像工作領域的門檻大幅降低. AI的輔助作畫可以非常大幅度的縮段生產時間. 4. AI輔助文書文件和報表的成生和編輯:文件和報表都是有固定模式的. 利用AI辨識使用者的抽象概念, 提供多樣化建議縮短生產時間是非常有潛力的應用. 5. AI輔助工程軟體上的輔助設計: 類似於程式設計以及文件生成, AI有非常大的發展空間 6. AI輔助醫療診斷: 雖然AI幻覺會給錯誤判斷, 但是AI可以改成給予廣泛的建議 以及提供病症可能性解方, 補足診斷醫師的盲點, 避免醫師自己的偏好/偏見. 用AI結合病人的身體數據分析可以避免醫師不小心忽略並不容易注意的的地方. 錯誤應用: AI輔助法律訴狀撰寫: 法務相關事務必須要謹慎, 正確理解法條, 要斟酌字句, 要推演邏輯 , 要思考論點. 這全部都是AI的弱點, 任何一點點的AI幻覺都可能引發非常嚴重的錯誤. = 美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」= https://news.ltn.com.tw/news/world/breakingnews/4316350 這個案例也很清楚的展示, 生成式AI在缺乏監督的的情況下很可能會鑄成大錯. 因為AI無法理解, 無法思考, 無法創造. 所有的輸出和回應都是線性組合後得到的最佳"數據". AI不知道其中的意義. 結論: 在人類真正發展出可以思考的AI之前, AI不會取代人. 因為AI需要監督. 懂得使用AI的人會取代不會是用AI的人. 一直在那邊嚷嚷AI要取代人類的, 很可能就是會被取代的那一群. 因為這些人根本不知道AI是怎麼運作的. - - - 題外話, 在發展出有意識的AI之前, 人類必須要了解 "何謂意識" 這種高階AI發展的門檻最後是卡在腦神經科學上, 而不是計算機或是半導體. "何謂意識"是人類有思考能力以來的千古難題. 我自己是不認為在我們有生之年人類內能夠破解"意識" -- ※ 發信站: 批踢踢實業坊(pttsite.org.tw), 來自: 149.117.216.29 (臺灣) ※ 文章網址: https://pttsite.org.tw/Tech_Job/M.1685612046.A.46C ※ 編輯: SnowFerret (149.117.216.29 臺灣), 06/01/2023 17:39:54
Weky : AI就和之前元宇宙系列一樣 下一代燒給我說系列06/01 17:41
InfinitySA : 推06/01 17:51
cs410567cs : 一堆似是而非的東西06/01 17:56
tr920 : 推,解答了大部分人心中的疑惑06/01 17:57
SnowFerret : 不能說完全跟源宇宙一樣06/01 17:57
SpyTime: 有沒有富二代要包養06/01 17:57
SnowFerret : 殺手級應用是肯定會出現的06/01 17:57
SnowFerret : 現在是因為還有門檻要解決06/01 17:57
SnowFerret : 例如 著作權歸屬 公司智慧財產洩漏 訓練資料不足06/01 17:57
SnowFerret : 但是對於Adobe Microsoft Google這些問題都不大 近06/01 17:57
SnowFerret : 3-5年內必有突破06/01 17:57
Toth: 身邊有朋友被包養06/01 17:57
SnowFerret : 但是我主要是想說AI並不如大多數人想像一樣萬能06/01 17:57
tr920 : 如果AI可以自己發明一種程式語言,才有資格說AI已06/01 17:58
tr920 : 經有了意識06/01 17:58
InfinitySA : 看到有些人說 很多科技業大老闆或企業家說ai會取代06/01 17:59
InfinitySA : 但我覺得應該要有自己思考的能力 他們說的不一定對06/01 17:59
Asterix: 亞洲最大包養平台上線了06/01 17:59
CannedHamEgg: AI目前沒辦法完全取代 但你也說了 目前人還是要監06/01 18:42
CannedHamEgg: 督AI 也就是AI可以取代部分人的工作 也就是部門可06/01 18:42
CannedHamEgg: 以因此縮編 這就是取代 部分取代06/01 18:42
zaiter : 可以不斷告訴一個小孩1+1=3 他長大優惠覺得就是3 低06/01 18:48
zaiter : 能文章06/01 18:48
AdamShi: 這個包養網正妹好多 是真的嗎06/01 18:48
godnnn : 你這篇說是chatgpt 寫的我都信06/01 19:03
kknnightt : 同意樓上說的小孩1+1=3,說不定只是是喂進去的資料06/01 19:33
kknnightt : 侷限了AI的計算 與人類不同06/01 19:33
CGDGAD : 聽起來AI核心是蒙地卡羅法06/01 20:53
a1234567289 : 蒙地卡羅法只是AI的其中一種算法06/01 21:06
lezabo: 真的有這麼多人在找包養06/01 21:06
afking : 蒙地卡羅是可以應用在機器學習,但你不能稱之核心06/01 21:10
jasontmk : 結論帥氣XD06/01 21:16
jasontmk : 懂得使用AI的人會取代不會是用AI的人.06/01 21:17
jasontmk : AI就當作是高效率作業員06/01 21:17
jasontmk : 而且不會靠北06/01 21:18
silberger: 有人可以分析一下包養平台的差異嗎06/01 21:18
tn601374 : 取代的都是廢物06/01 21:38
tn601374 : 有能力,ai算個屁06/01 21:38
jordan0522 : 講那麼多結果用gp-3 XD06/01 21:55
q2825842 : 很多關於AI的討論,陷入過於極端的問題,或是進入06/01 22:10
q2825842 : 科幻小說的範疇。相對這篇蠻多點比較接近現實情況06/01 22:10
xayile: 那個包養網人最多XD06/01 22:10
gene123 : 推,說明清晰06/01 22:19
dhm520 : 一直跟一個人說1+1=3,最後他也會說1+1=3啊06/01 22:56
SnowFerret : 但是人類接受數學教育後會反思1+1=3是否合乎邏輯06/01 23:05
SnowFerret : 這是人類跟AI的差異06/01 23:05
SnowFerret : 人類如果不思考 只會聽命形式 真的比AI還不如06/01 23:05
cazo: 我妹上包養網被我發現= =06/01 23:05
SnowFerret : 行事*06/01 23:05
greenie319 : 人類所謂的知識應該可以很粗略分成兩類,以人類發06/01 23:53
greenie319 : 現的科學規則推演和人類主流共識,科學規則有客觀06/01 23:53
greenie319 : 事實及理論證據(至少在人類的觀測下),是不能多06/01 23:53
greenie319 : 數決的,但便主流共識類的,恰好符合RL的天性,AI06/01 23:53
izilo: 隔壁桌的人竟然在討論包養...06/01 23:53
greenie319 : 有高機率做的比人類好。06/01 23:53
Izangel : 你這不能解釋為什麼chatgpt看了一本推理小說,可以06/02 02:02
Izangel : 回答兇手是誰。現在的ai不是只有靠機率決定。06/02 02:02
Izangel : 上面說的數學教育就是一種監督。你只是故意給ai錯誤06/02 02:05
Izangel : 的監督。你在小島上教所有小孩1+1=3,人類不會比ai06/02 02:05
SEDAP: 樓上是不是被包養06/02 02:05
Izangel : 全沒提到大型midel出現「湧現」的能力06/02 08:06
doranako : 那個回答感覺張飛跟關羽有基情06/02 08:25
snoopy790428: 小孩你1+1=3多教幾次就被騙了 這個權重增加我看是06/02 10:32
snoopy790428: 同一個道理06/02 10:32
vi000246 : 就跟現在新聞媒體洗腦很像 大家告訴你這東西很好06/02 10:56
TUZom: 未看先猜這包養06/02 10:56
vi000246 : 久了你就以為很好了06/02 10:56
LPCbaimlly : 你要求AI回答1+1=3他當然就回答給你聽啊,老闆說1+06/02 11:33
LPCbaimlly : 1=3為了薪水你還不點頭稱是?06/02 11:33
SnowFerret : AI湧現這個能力因為數據過於龐大 尚無法有效的用科06/02 11:43
SnowFerret : 學方法分析06/02 11:43
Jiulon: 一定又是這包養06/02 11:43
SnowFerret : 在這討論這種未定論議題又不提出數據佐證 只是淪為06/02 11:43
SnowFerret : 幻想討論而已 跟在說AI=魔鬼終結者一樣 沒有任何意06/02 11:43
SnowFerret : 義06/02 11:43
SnowFerret : 我應該是在科技版不是宗教版或是科幻小說版吧?06/02 11:44
Coolruehl : 推 06/02 21:02
laetuon: 包養平台不意外 06/02 21:02