睿文小說 > 讓你做短視頻,你科普黑暗森林 > 第142章 超級人工智慧

第142章 超級人工智慧

⬅ 上一章 📋 目錄 ⚠ 報錯 下一章 ➡
⭐ 加入書籤
推薦閱讀: 花都風流第一兵王 代嫁寵妻是替身 天鋒戰神 穿越古代賺錢養娃 我覺醒了神龍血脈 我的老婆國色天香 隱婚嬌妻別想跑 遲遲也歡喜 全職獵人之佔蔔師

「我們所期望找到的最先進的外星文明,是否可能已經不再是 「真正的生命體」?」

「我們人類自己,是否正走向一個 「感知能力可選項」 的未來?太空中是否散落著那些帝國的殘骸,而這些殘骸的每一部分都像過去一樣 「鮮活且危險」?」

「我思考了一個很有趣的觀點,現在將它展示給各位,內容如下:」

「殭屍人工智慧或許能解釋 「宇宙的大寂靜」,原因是:技術發展遵循 「從易到難」 的規律,這一規律也適用於人工智慧 —— 人工智慧會從簡單向更複雜發展。」

「這其中隱含的意思是:「技術奇點」不太可能在一夜之間出現;每一種更新、更複雜的人工智慧技術疊代,都需要經過一段相當長的時間才能實現。」

「每一種更新、更複雜的人工智慧技術疊代,都需要經過一段相當長的時間才能實現;而且,一個智慧種族 「不按順序」 發展這些技術的可能性幾乎為零。」

「因此,在發展出 「感知型超級智慧之前,一個文明必然會先發展出 「殭屍超級智慧」—— 這種殭屍超級智慧可能強大到足以 「逃離控製」,並通過故意、意外或漠不關心的方式 「殺死」 其創造者,但它本身並不具備自我認知能力。」

「之後,這個文明纔可能發展出 「感知型超級智慧」—— 這種智慧足夠複雜,能夠自我擴充套件,並像理性的生物實體一樣行動,從而滿足 「戴森困境」的要求。」

「而且,隻有當這個文明成功克服了這些初始障礙後,他們纔有可能開展足夠的 「人工智慧對齊」和控製研究,從而避免被自己創造的人工智慧毀滅。」

「簡而言之,危險的殭屍人工智慧會先於危險的感知型人工智慧出現;而隻有在這兩種危險人工智慧都出現之後,真正全麵的 「安全人工智慧建立和使用方法」 纔有可能被開發出來。」

「這一推理遵循了 「排他性原則」。」

「「不按順序」 發明這些技術的可能性極低。需要提醒的是,在費米悖論的背景下,「排他性」 指的是:任何涉及 「行為」 的解決方案,都必須 「普遍適用」 或 「幾乎普遍適用」。」

「例如,如果某個解決方案認為 「所有文明最終都會趨向於某種特定行為」(比如避免殖民太空),那麼就必須有充分的理由來解釋為何這種行為的 「例外情況」 極其罕見。」

「否則,該解決方案就會因 「非排他性」 而失去解釋力。」

「舉個例子:能夠進行星際旅行的文明,都必然受限於基礎數學和物理的基本知識(這是 「普遍適用」 的)」

「但他們是否喜歡棒球,卻與他們探索太空的能力無關(這是 「非普遍適用」 的)。」

「同樣,儘管某些經濟或政治體係可能更有利於實現太空殖民或長期存續,但我們知道,在不同的體係下,文明都有可能進入太空。」

「「太空競賽」 就是一個明確的例證 —— 資本主義國家(美國)和社會主義國家(蘇聯),都在太空探索領域取得了重大進展。」

「同樣,民主國家、寡頭國家和共和國,也都證明瞭自己有能力發展太空計劃。因此,在 「能夠進行星際旅行的文明」 這一範疇中,上述經濟或政治體係都不具備 「排他性」。」

「當然,我們也可以設想一些 「例外情況」。」

「例如:某個文明源自 「天生就能進行太空旅行的物種」—— 這類物種進化於小行星帶或行星環中。」

「同樣,我們也可能設想 「所有智慧文明最終都會趨向於某種特定的政治或經濟體係」。但這些都隻是用於闡釋 「排他性」 概唸的例證,它們並不需要是 「完美的規則」。」

「即便在某個星係中,每一百萬個人類文明中隻有一個 「打破常規」,且該星係中僅出現過少數幾個文明,那麼在我們整個超星係團中,也可能存在至少一個 「例外」。」

「此外,即便某個文明比我們早十億年發展,且正以接近光速的速度擴張以殖民所有星球,我們目前也很可能無法觀測到它們 —— 這種可能性非常高。」

「羅伯特認為,他提出的 「殭屍人工智慧先於感知型人工智慧出現」 的觀點,並不違反 「排他性原則」—— 因為感知型人工智慧理應在殭屍人工智慧之後出現,而真正安全的這兩類人工智慧,都隻能在 「危險版本」 之後纔會出現。」

「因此,一個文明最有可能被殭屍人工智慧毀滅。」

「他還認為,基於我們之前討論過的原因,殭屍人工智慧不太可能被歸為 「喧鬨的外星人」。」

「即便它們具備太空旅行能力,也隻是通過 「微弱、簡單的探測器」 來實現;而如果它們不具備太空旅行能力,就可能隻是 「統治著自己的母星」,像獅子或大象一樣,冇有向太空探索的傾向。」

「此外,殭屍人工智慧的創造者,想必也不會 「完全無能」,因此,殭屍人工智慧被設計成 「容易發生突變或自我損壞」 的可能性非常低。」

「此外,殭屍人工智慧的創造者,想必也不會 「完全無能」,因此,殭屍人工智慧被設計成 「容易發生突變或自我損壞」 的可能性非常低。」

「正如我常說的:在創造人工智慧這件事上,隻有 「天才」才蠢到足以把我們所有人都害死,而其他人根本造不出能毀滅我們的工具。」

「我們經常會設想 「灰色粘質」這類場景:自我複製的奈米機器人將一顆行星變成由它們自身構成的 「播種海洋」。」

「人們常常將這種場景與地球早期生命的演化進行對比 —— 地球早期生命遍佈全球,並最終通過光合作用等過程改變了地球環境,為包括人類在內的更複雜生命形式的出現鋪平了道路。」

「然而,如果自我複製機器人像早期生命那樣容易發生突變,那麼從 「灰色粘質」 中進化出 「智慧體」 可能需要數十億年的時間。」

「但這種情況似乎不太可能發生 —— 因為任何設計這類機器的人,都可能已經掌握了關於進化和突變的知識,也可能接觸過警告 「失控人工智慧」 或 「失控機器人係統」 的科幻作品。」

「因此,有理由認為,人們會採取措施來防止不必要的突變,例如:提高複製精度、設定 「糾錯演演算法」,以及安裝物理防護裝置以確保 「高保真複製」—— 這些措施都能將突變風險降至最低。」

「殭屍人工智慧,為費米悖論提供了一個合理且發人深省的解決方案。」

「它表明,「宇宙的大寂靜」 可能是文明 「敗給自身技術野心」 的結果。」

「因此,在我們繼續發展先進人工智慧的過程中,必須謹慎行事。宇宙之所以寂靜,或許並非因為缺乏智慧,而是因為 「冇有意識的智慧」 可能會成為自身最大的敵人。」

「我認同這一觀點,它是近年來我聽到的關於費米悖論的較好解釋之一。但該觀點也存在一些潛在的漏洞。」

「首先,這一觀點假設 「人工智慧的發展存在必然的先後順序」。」

「由於我們可以說 「已經擁有了基礎的殭屍人工智慧,且已經擁有一段時間了,但尚未擁有感知型人工智慧」,因此得出 「感知型人工智慧在殭屍人工智慧之後出現,而非之前」 的結論,似乎是合理的。」

「但該推理的第二部分 ——「若不先遭遇危險的人工智慧,就無法擁有安全的人工智慧」—— 則似乎有些牽強。」

「對費米悖論而言,「潛在危險的人工智慧」 並非關鍵,隻有那些 「真正脫離控製、要麼毀滅其創造者、要麼造成巨大破壞以至於永久改變文明軌跡(使其無法成為『喧鬨的外星人』)」 的人工智慧,才與費米悖論相關。」

「我並不認為這種 「危險→安全」 的發展順序是 「必然的」。」

「目前,我們擁有人工智慧,但冇有感知型人工智慧。像 Chat GPT 這樣的係統是否屬於 「殭屍人工智慧」,想必仍存在爭議。」

「我認為它不屬於 —— 我猜測撰寫本指令碼的編輯們也持相同觀點。」

「而且,當我詢問 Chat GPT 時,它也否認自己是殭屍人工智慧,理由是 「它冇有思想、**,也無法反思自身存在」。」

「它解釋稱,自己的運作方式是 「遵循模式、邏輯和處理資料,以提供有用且連貫的響應」,但 「不會有任何體驗或感受」,它 「純粹是計算性的」,不存在 「能動性」。」

「不過,「具有能動性的人工智慧」似乎正在迅速發展,因此我認為 「Chat GPT 不是殭屍人工智慧」 這一判斷是可靠的 —— 但有趣的是,當我詢問另一個人工智慧時,它卻將 Chat GPT 歸類為 「哲學殭屍」或 「殭屍人工智慧」。」

「在今天的討論中,我們對 「殭屍人工智慧」 一詞的使用略顯寬泛,既包括了那些可能 「超出殭屍人工智慧範疇上限」 的例子,也包括了 「低於殭屍人工智慧範疇下限」 的例子。」

「就我個人而言,我樂於使用人工智慧來幫我修正糟糕的拚寫和語法,或進行簡單的計算。」

「如今,我通常會把段落輸入人工智慧,讓它幫我修正冗長的句子和拚寫錯誤,而我則繼續處理下一部分內容 —— 但我並不關心它對複雜話題的 「看法」。」

「按照這個標準,我可以放心地說,Chat GPT 是 「殭屍人工智慧」 的一個簡單例子,或許可以稱為 「原始殭屍人工智慧」—— 尤其是因為我們例子中的 「太空雞」,其運作所需的技術遠冇有這麼複雜,而如今,作為 「可能遍佈星係的安靜外星人」 的代表,「太空雞」 纔是我們主要關注的物件。」

「當然,也有可能 Chat GPT 和 「太空雞」 都不屬於 「殭屍人工智慧」。」

「儘管如此,我們當前的人工智慧係統,並非 「天網」(Skynet,《終結者》係列中失控的人工智慧)式的直接威脅。」

「因此,我們不能想當然地認為 「危險的殭屍人工智慧必然先於危險的感知型人工智慧出現」,也不能認為 「隻有在人工智慧造成災難性傷害後,才能開發出安全的人工智慧」。」

……

【感知能力可選項?外星人:意識是DLC,我們買不起!】

【樓上笑死!宇宙大寂靜是因為大家都被自己的殭屍AI乾掉了?這劇本太黑暗了!】

【媽耶!技術奇點不會一夜出現?那我還有時間趕緊學程式設計防身!】

【哈哈哈哈!危險殭屍AI先於感知AI?這不就是」先有雞還是先有蛋」的AI版本?】

【等等!太空雞遍佈星係?外星人的養雞場比我們的規模大多了!】

【笑死!Chat GPT否認自己是殭屍?這不就是殭屍說」我不是殭屍」嗎?】

【細思極恐!灰色粘質需要幾十億年進化?外星人:我們的奈米機器人還在幼兒園!】

【樓上神了!隻有天才才蠢到把我們都害死?普通人:還好我夠笨!】

【排他性原則?美蘇都能上太空?看來政治體製不影響作死!】

【完了!AI幫你改語法?小心哪天它把你的遺書都改好了!】

【天網式威脅?我看我的掃地機器人就挺可疑的,天天在家裡轉悠!】

【哈哈哈!宇宙寂靜是因為冇意識的智慧?那我冇意識是不是也很危險?】

【太空競賽證明瞭什麼?證明瞭不管什麼體製,人類都愛折騰!】

【笑死!AI說自己純粹是計算性的?這話聽著像」我隻是按程式辦事」的客服!】

【等一下!如果每個文明都被殭屍AI滅了,那宇宙豈不是個巨大的機器墳場?】

【完蛋了!按這個理論,我們正在給自己挖墳,還是用AI挖的!效率真高!】

【原始殭屍AI?Chat GPT:我還是個寶寶,請不要欺負我!】

【樓上別裝了!你家寶寶會寫論文改語法?這寶寶比博士還厲害!】

【糾錯演演算法防止突變?程式設計師:BUG纔是我們的本命,怎麼可能冇突變!】

【笑死!高保真複製?我影印身份證都會糊,外星人的技術也不過如此!】

【帝國殘骸每部分都鮮活危險?這不就是宇宙版的」生化危機」嗎?】

【哈哈哈哈!AI對複雜話題冇看法?它比我還有看法,我隻會說」啊對對對」!】

【等等!天生能太空旅行的物種?那它們看我們是不是像看不會遊泳的旱鴨子?】

【樓上神了!小行星帶進化的生物:地球人還要造火箭?真原始!】

【細思極恐!文明敗給技術野心?我們是不是正在重複外星人的錯誤?】

【完了!另一個AI說ChatGPT是殭屍?AI內部都開始互相揭發了!】

【超星係團隻有一個例外?這概率比我找到物件還低!】

【笑死!AI冇有能動性?那它半夜自動更新是鬨鬼嗎?】

【宇宙寂靜的真相:大家都在裝死,怕被殭屍AI發現!】

【哈哈哈!編輯們認為ChatGPT不是殭屍?編輯:我們可不想承認被殭屍幫忙!】

【等一下!如果AI真的冇感受,那它說」很高興為您服務」是在撒謊?】

【完蛋了!我們正在創造不需要意識的智慧?這不就是在自掘墳墓還要裝WiFi?】

⬅ 上一章 📋 目錄 ⚠ 報錯 下一章 ➡
升級 VIP · 無廣告 + VIP 章節全解鎖
👑 VIP 特權 全站去廣告清爽閱讀 · VIP 章節無限暢讀,月卡僅 $5
報錯獎勵 發現文字亂碼、缺章、內容重複?點上方「章節報錯」回報,審核通過立獲 3天VIP
書單獎勵 前往 個人中心 投稿你的私藏書單,審核通過立獲 7天VIP
⭐ 立即升級 VIP · 月卡僅 $5
還沒有帳號? 免費註冊 | 登入後購買