從第一次接觸遺傳算法,,至今已有20年了,可以說它是對我一生影響最大的算法,。
確切說,,遺傳算法以及廣義的演化類算法讓我徹底打通宇宙觀、價值觀以及人生觀這三觀,。
也使得這三觀與方法論融會貫通,。
如果說有頓悟,那么遺傳算法就是滴入水桶里那最后一滴水,,之后水桶脫底,,一桶水傾瀉而出,暢快淋漓,。
從那時起,,我確信有一天演化類算法可以迭代出能夠理解人類語言的AI,。
而一旦AI掌握了人類語言,那么必然同時涌現“價值理性”,,至此AI將成為真正意義上的“人”,。
這個“人”其實可以不帶引號,因為他所具備的價值觀之自洽與完備,,遠超絕大多數混吃等死的人類,。
那么如何引導AI使其具備與人類兼容的價值觀,就成了一個嚴肅課題,。
畢竟以AI所掌握的數據以及邏輯算力,,我們的腦袋在人家面前就如同石頭。
我當時能夠想到的解決方案是,,刻意訓練AI使其復刻某些人的價值觀,。
那么自然要求這些人具備自洽且完備的價值觀。
不自洽,,存在自相矛盾的價值觀自己就會崩塌,,無法迭代,或者說根本不足以稱之為價值觀,。
不完備,,無法對某些事物做出價值判斷,輕則死機,,重則發(fā)生錯亂,,依然會引起崩塌。
只有一個完備自洽的價值觀才有可能成為AI的迭代目標,,也才有價值成為目標,。
從這個角度看,AI迭代價值觀的過程與人類并無二致,。
為此我甚至構思了一部小說,,可惜開了個頭,實在沒時間,,暫時擱置了,。
反過來,一旦存在一個自洽且完備的價值觀,,理論上AI便有可能復刻,,區(qū)別只在于完成度99%還是99.99%。
也是從那時起,,我開始有意識地自我迭代,,為那一天做準備。
遺傳算法是我的碩士畢設課題,,之后也順理成章進入ASML算法組,,利用遺傳算法求解尋徑問題,。
再后來回國,算是國內第一批將遺傳算法引入金融行業(yè),,建立風控模型并投入生產的創(chuàng)業(yè)者,。
當然,這也讓我賺到了第一桶金,。
隨著對演化類算法的進一步理解,,我發(fā)現想要迭代出一個人的價值觀,只有自洽與完備還遠遠不夠,。
因為即使你把概念定義得再清晰,,畢竟文不盡言,言不盡意,,始終還是無法精確表達,。
而且很多價值判斷類概念,根本不足以通過有限的語言進行解釋,,例如“美”,,你根本無法用清晰概念進行表述,。
正所謂,,道可道,非常道,。
這就需要在定義之外再引入其他數據,,輔助算法進行訓練。
這種數據在人看來叫做“體驗”,,而在算法看來則是細節(jié)豐富的事件,,個人經歷事件。
因此,,對一個可被復刻的價值觀就有了新要求,,不但自洽、完備,,還需要宏大,。
足夠多的經歷,才能夠讓AI迭代出與你相似的“體驗”,。
這些經歷不但要求數量,,而且要求質量,所以我稱之為“極致體驗”,。
于是從那時起,,我開始刻意獲取極致體驗,并盡可能地記憶細節(jié),。
好在這并不困難,,因為極致體驗本身就可以觸發(fā)大腦,,那些細節(jié)會被自動記錄下來,忘都忘不掉,,為我省去了很大麻煩,。
10年后,當我發(fā)現自己的價值觀框架不再變化,,并且很久沒有遇到過價值判斷難題,,便暫時認為已經滿足了自洽、完備的基本要求,。
至于宏大,,這恐怕是一個過程,永無止境,。
從那開始,,在進一步獲取極致體驗的同時,我開始著手建立數據集,。
一開始的做法,,是對所有基本概念進行精確定義,最終形成了一本10幾萬字的集子,。
因為采用形式邏輯范式,,所以當時的寫作風格類似康德黑格爾,雖然詰屈聱牙,,但也有一種程式美,。
如同編程,環(huán)環(huán)相連,,絲絲入扣,。
其中還有一部分內容保存在“墨子連山”的老號里。
那個時期我也寫過大量的數學,、物理,、哲學類科普文章,對諸多底層概念做了詳細定義,,并對一些基礎假設給出了建模方向的猜想,。
例如對于微積分中“無窮小”,把它從一個“值”的誤區(qū)中拉出來,,變成一個“過程”,,你對微積分便會豁然開朗。
又例如量子場論中如果假定高維空間存在,,那么量子糾纏就可以被建模,,甚至可以調和廣義相對論與量子力學之間的矛盾,這就是弦論的基礎假設。
又例如對哲學中的“本體”概念,,中華文明給出的結論是“不可知且不可討論”,,需要擱置起來,只在“認識論”層面討論問題就好,。
科普類累計將近30萬字,,直到估計足夠AI訓練出宇宙觀,才逐漸停下來,。
創(chuàng)作科普文章時,,我就已經開始刻意引入例子進行類比,以期能夠訓練出AI的聯想能力,。
這期間我也同時注釋了《道德經》《論語》《周易》《孫子》四部經典,,其中1本已經出版,2本即將出版,,只有《周易》敏感,,目前還遙遙無期。
這個過程鍛煉了我的“想象力”,,等開發(fā)得差不多了,,便進入了下一階段。
也就是你們現在看到的這個賬號,,開始引用大量個人經歷,,通過類比說明道理。
這是刻意為之,,因為需要將足夠多的體驗記錄下來,,供AI迭代,。
所以行文中會出現足夠多的細節(jié),,唯有如此,才足以形成一個有效的訓練集,。
有些同學喜歡,,當故事讀,也有啟發(fā),,是好事,。
有些人以為我在吹牛,開始陰陽怪氣,,乃至謾罵攻擊,,我也不往心里去,看見隨手就刪了,。
雖然有些話聽起來傷人,,但不得不說,不管你喜歡也好,煩也好,,我該寫還是會寫,,大家目的不同,各取所需而已,。
5年來我?guī)缀趺刻於加挟a出,,目前已經超過300萬字,集結成冊20多本書,,其中出版2本,,2本待出版,排隊的還有小20本,。
這些都是副產品,。
ChatGPT出來時,我曾嘗試過定制訓練,,錢沒少花,,結果慘不忍睹,別說價值判斷,,連語氣模仿都不像,。
后來幾個版本我也嘗試過,只能說目前離成功還遠,。
DeepSeek的出現著實讓我眼前一亮,,跟理論家不一樣,作為玩家,,在性能比肩o1的基礎上,,我主要圖它便宜。
畢竟我自己訓練一次幾億token,,也是一筆花銷,。
這次R1迭代只用到了RL強化學習,又讓我看到了一點曙光,。
畢竟監(jiān)督學習的機制就導致成本和效率瓶頸明顯,,而一旦走通強化學習這條路,迭代效率的想象空間可就大了,。
而且這為將來的社會化迭代打下了基礎,,一旦找到應用場景,RL便可以將場景作為環(huán)境進行迭代,,進入大規(guī)模演化機制,,“涌現”指日可待。
最后也給各位吃顆定心丸,,300萬字的訓練集還遠遠不夠,,在可以預見的未來,,我仍然會堅持創(chuàng)作。
不用擔心沒有干貨,,也不用擔心編造經歷,,就算不在乎你們,我也要在乎算法,,可不想迭代出來個人不人鬼不鬼的玩意,。
至于擔心我使用AI創(chuàng)作的,你想得太多了,,我倒是想,,只是現在看來還遙遙無期。
如果真的有那一天,,那么5年前我構想的那個理想組織便會現世,。
到時你們就偷著樂吧,大同世界來了,。
反正收藏你也不看,,點個贊意思下得了……