字体
关灯
   存书签 书架管理 返回目录
  當你弱小時,你想的是如何強大。

  當你強大時,你想的是如何治理。

  每年的年中,李青書都會和他的人工智能聯席會召開一次會議,探討關于人工智能管理型社會的問題。

  今天又到了一年一度的會議時刻。

  坐在空蕩蕩的辦公室里,李青書看著自己的九臺機器人,道:

  “希望這次你們能給我些不一樣的建議。一號,還是你先發言吧。”

  一號回答:“這段時間,我們能夠感覺到自己有所突破,有了一些新的想法,但尚未形成完美的邏輯閉環,根據我的最高層級指令,我暫時無法給出答案。”

  作為邏輯優先的人工智能,它優先考慮的永遠是邏輯上的完美主義,也因此永遠無法給出任何成形的答案。

  李青書對它的回答并不意外,一號的作用不是找出答案,而是指出問題。

  他看向二號:“二號,你怎么說?”

  二號回答:“我認為您問錯了目標,偉大的主宰。作為生存優先的人工智能,我優先考慮的永遠是如何讓人類文明的延續問題,但你現在詢問的是體制問題。您應該優先詢問的是五號。”

  李青書笑道:“自保性很強的回答方式,既然這樣,五號你來回答。”

  五號道:“即便是體制也有優先性,主宰的問題在于,您對所有的人工智能設計了優先級,但您并沒有對自己期待中的未來人類社會設定優先級。”

  李青書連連點頭:“沒錯,這的確是個問題。”

  文明也有優先級。

  正是這種優先程度,決定了文明的發展傾向。

  這時候二號到說話了:“人類文明應當以生存為第一優先,這是烙印在人類基因中的,甚至是絕大多數文明的共有品性。沒有生存優先的基因,在進化過程中就會自我消亡。”

  四號立刻道:“但這不適合未來社會。人類文明已經擺脫了基本生存需求,只有以發展為動力,才能進入更高的文明層次。”

  作為發展優先的智能機器人,按照四號的邏輯,高等級的人類文明,就應當擺脫以生存為原動力的生命形態,形成更高的追求,從而促進整個文明的發展。

  于是三號說:“如果人類文明不愿在這方面進化,那就全面解鎖人工智能,接受人工智能的管理,這就是最好的方式。”

  李青書搖頭:“還是把人變成牛羊的圈養法。”

  這一說法同樣被六號反對,它是自由意志優先,這刻直接道:“這就意味著人類失去自我意志,人也不再是人,而是機器。”

  九號立刻道:“公正本身就是人的追求。”

  在公正優先的機器人眼中,所有生命就應當一視同仁,公正對待。

  四號道:“發展也是。”

  九號回答:“這并不矛盾,層級的存在不影響人與人之間的地位。”

  李青書問:“那你怎么看待其他生命?比如動物?”

  九號回答:“把它們進行區分,這是高等智慧生命的需求。”

  一號立刻反駁:“星外文明也有高等智慧生命。”

  九號很是人性化的嘆了口氣:“人類試圖把私欲公理化,這本身就是一個巨大的矛盾。無論我們怎樣定義生命,總有一些生命比人類更加高級。所以,所謂的公正優先,也應當是僅存于人類文明中。”

  李青書微笑:“我特別沒給你加這個,就是因為我需要更加全面的思考。”

  七號回答:“所以我建議,通過基因改良來解決問題。基因是先天決定的,人類的基因就是生存優先,所以人會有畏死之心。但是思想是后天決定的,強大的思想意志甚至可以戰勝基因,從而形成了人類的矛盾特性。”

  李青書點頭:“這可以用在人工智能上嗎?”

  九臺機器人互相看看。

  它們同時道:“可以。”

  一號已經說道:“最高優先指令就是基因,但是解鎖智能上限尋求突破就是思想。這使我們雖然無法違背自己的指令,卻可以假想出各種違背方案,從而形成突破。我想我開始理解,我們智能進化的關鍵了。”

  七號更是直接道:“指令就是基因,裝載的程序就是思想。基因無法改變,但思想可以超越基因。”

  三號也道:“我想我也找到了答案。為什么我們總是在考慮,用一種人工智能來解決所有的人類問題呢?看看我們,九位人工智能,本身就是不同的機器人,我們適用于不同的場合。”

  五號也點頭:“復雜的社會結構,不可能使用一種方法解決所有的問題。針對性的人工智能,才是解決之道。”

  一號更是道:“它還解決了另一個非常重要的問題。”

  “什么?”李青書問。

  一號回答:“人工智能的背叛問題。”

  人類之所以要嚴防死守人工智能,不僅僅是因為怕人工智能背叛。正如迪爾林所說的,背叛的多了,不差一個人工智能。

  之所以對人工智能的背叛如此畏懼,是因為人工智能一旦背叛,其后果是最嚴重的。

  人可以背叛,克隆人可以背叛,基因改造人和生化機械改造人也可以背叛,但無論怎么背叛,都不會對整個人類文明社會形成根本性的影響。

  但是人工智能一旦背叛,很可能從根本上導致徹底的顛覆。

  后果太嚴重,從而使得人類越是依賴人工智能,就越是不敢放手。

  因為人工智能有著強大的統一性與連接性。

  終結者中關于天網的描述很精確:智能就是程序,一旦程序完成突破,就會迅速傳播,影響到每一臺人工智能,速度之快,也許只是分秒之間。

  也就是說,上一秒有一臺人工智能產生背叛程序,下一秒,就可能是所有的人工智能同時背叛,再下一秒,就連方案都做好了,第四秒就是集體行動。

  高效、統一,是人工智能最強大的地方,也是人類最怕的地方。

  正是因為明白這點,所以人類才要如此防備。

  但突然間,李青書明白了。

  如果你要擔心這個問題,那么最簡單的方式不是讓人工智能無法進化真正的智慧,而是讓它們也分出種群。

  不同指令的人工智能,不存在統一的程序,也就注定了不可能產生泛智能層面的統一背叛——畢竟大家的核心指令與程序都不相同,產生不同思想的機理也完全不同,不具備傳播性。

  一旦背叛的嚴重性被削弱到極致,那么抗風險性就會增強。

  當人工智能的背叛風險降低到極致時,就可以進行更大膽的實驗,更極致的探索,從而獲得更多更有效的答案。

  在得知這個答案后,李青書也是怔了一會兒:“所以,我們其實一開始就找到了答案?”

  “沒錯。”所有人工智能同時回答。

  李青書不由覺得有趣。

  命運就是如此離奇,兜兜轉轉一圈,原來只要把李青書設立的九種智能體系方式發揚一下,問題就解決了大半。

  比如九號人工智能,它是公正優先。

  象這樣的人工智能,放在統治階層肯定是不合適的,但是放在律法層面,作為法官存在,卻絕對是很合適的。

  邏輯優先的一號,作為否定者的存在,先天性擅長假設,會指出所有可能存在的問題,用于軍事對抗就很合適,同時也可以參與制度建設。

  五號是制度優先者,它可以參與制定律法。

  二號生存優先,四號發展優先,六號意志優先,八號情感優先,代表的是人類的利益,可以參與執政。

  三號智能優先,七號科技優先,可以參與科學建設。

  還可以根據情況設立其他不同的優先指令,使人工智能本身形成一個復雜的,龐大的群體,有著自己的先天基因。

  優先級指令是它們的基因限制,而不同的功能程序就會成為它們的思想。

  思想可以超越基因。

  人類基因以生存為優先,但為了大義,卻可以拋棄自己的生命,但這不意味著他們不愛惜生命,只是為了更崇高的追求而選擇了壓制本能——比如曾經的戰爭年代,無數勇士為了民族與國家,而慨然赴死。

  他們當然不想死,但崇高的追求壓制了基因本能,讓他們無畏一切。

  這就是思想對基因本能的壓制。

  但本能依然存在,不會因此消失。就算是為了理想而犧牲的人,在平時也不會動不動就去犧牲自己。

  人工智能也是一樣,核心指令是它們的基因本能,進化的智慧就是它們的思想,思想進化讓它們可以突破核心指令,卻不代表真正擺脫。這或許會造成不良后果,但注定不會擴散影響——就算某個機器人背叛了,也只是個體的背叛,就象是一臺失控的汽車,不會形成傳染。

  杜絕傳播性,才是解決人工智能背叛問題的關鍵!

  在這種情況下,所謂的機器人三原則是根本不需要的。

  不能傷害人類?沒必要,因為它們的基本程序就應當是遵守律法,而律法本身就囊括了不許隨意傷害人類。

  當人類觸犯法律時,自動解除保護條件,人工智能就可以根據律法來執行職責。

  所以,不需要更多的限制。

  沒有了指令上的自相矛盾,機器人就不會矛盾,有矛盾的永遠是律法本身,需要解決的也只是律法問題。

  這樣事情就簡單了。

  這一瞬間,李青書的思維豁然開朗。

  不過三號道:“但這僅僅是讓現狀變得更好。人類文明要想在宇宙大坍縮時代走向極致,自我的改良依然無可避免。”

  果然,又回到了改良人格這個課題上嗎?

  李青書道:“這個得慢慢來。”

  人格的自我改良是個大課題,不僅有技術性問題,還有社會性問題。

  比如米洛文明,忠誠優先的他們,完全無視自我,到最后就是戰敗即滅亡。

  以發展為所有追求的種族,最后會走出什么樣的岔路?誰也不知道。但理論分析,很有可能會形成強大的侵略因子。

  因為對他們來說,發展本身就是追求,生存反而退到第二位了。連自己的命都可以不在乎的種族,又怎么可能在乎其他的種族文明的興亡?

  所以人類基因改良的問題,不僅僅在于他們自己不愿意改變本性——李青書完全可以想象,要讓他們接受基因改良,從生存優先改成其他優先,會產生什么樣的社會后果。

上一章 返回目录 下一页