點子農場/後AI時代的創新道德文法

這一天,我問AI,以它對我的瞭解,在它眼中,我是一個什麼樣的人?「您關心創意、公益和生意,是三意創新的倡言人」AI說。

「有沒有想過,您的三意創新和過去數百年來的知名商業創新理論有什麼不同?」AI反問我。

我說,該是「公益」這件事,傳統的商業理論認爲企業的目的是爲股東創造價值,而不是爲社會創造價值。但我認爲,公益就是最好的生意,對大衆利益提供價值,企業本身也會更有價值。

AI沒有立刻接話,它像一位真正的學者那樣停頓了一秒,然後丟出一句問題:「那你願不願意把這句話改成一套論述,去對話AI時代的創新?」

那一刻,我忽然明白:後AI時代的創新,不再缺工具、不再缺資金、不再缺聰明人,缺的是「道德文法」——一套用來回答:什麼不該做、什麼必須做的語法。

創新理論長期默許一種價值前提:創新本身是好事。既然「創新必然好」,那它就不需要倫理學的辯證、不需要政治哲學的審問,更不必建立「不該做什麼」的界線。這使得創新研究看起來像一門技術與策略,而不是一門學問。

數百年來,商業世界的創新論述,一直缺的是「道德文法」。回頭看經濟學家熊彼德、日本學者野中鬱次郎,到提倡開放式創新的切斯伯,都是偉大的思想家,但他們幾乎共同忽略一件事:對如何創新講得極好,但是如何不傷害現在與未來卻很少說。

熊彼德把創新視爲資本主義的引擎,強調創造性破壞。問題是,這套語法預設破壞是必要代價,只要能促進成長就合理。

可是AI時代的破壞不只淘汰公司,也淘汰職業、信任與社會結構。當創新造成的失業、分裂、焦慮與不平等累積到臨界點,成長不再是正當化的免責金牌。

野中鬱次郎談知識創造、談內隱知識與組織學習,提醒我們創新根植於人。但他所描繪的是「如何讓組織更會創新」,並未回答「組織更會創新之後,會不會更會作惡」。知識可以創造藥,也可以創造毒;可以改善教育,也可以打造更精準的操控。

切斯伯鼓勵打破邊界、引入外部點子,倡議讓創新加速的開放式創新。但是在AI時代,開放意味着模型、資料、工具的快速擴散,也意味着造假、詐騙、深僞、資訊污染的「民主化」。當人人都能創新,人人也都能大規模傷害。

以上三位頂尖創新論述的共同缺口是:都把創新當成「能力」,而非「責任」;把創新當成「競賽」,而非「文明設計」。

後AI時代的創新有三個新特質:門檻塌陷:過去需要十年研發的事,現在靠模型與API幾周可做出原型;影響放大:一個錯誤的決策,可以即時影響百萬人;一個偏差的模型,能複製到全世界;不可知風險:系統不透明、黑箱決策、連開發者也難完全預測結果,風險不是「出錯」而是「出事」。

所以,後AI時代的創新需要一套新的道德文法,先從「不該做什麼」開始:

一、不做不可逆的傷害:凡是會造成大規模、不可回覆的社會或環境破壞,必須先被禁止或延遲。

二、不把外部性外包給社會:隱私、歧視、勞動剝奪、心理健康等成本,不能被當成「副作用」。

三、不以效率之名消滅人性:當AI讓人失去選擇、失去尊嚴、失去意義感,再高效率也是文明倒退。