from g0v.social

其實 Cyberpunk 2077 的世界,對網路如何邁向破碎有很深刻的描寫。

概略說,一個駭客撰寫的程式設計為他死亡時自動觸發,將所有企業的資料一夕間公開,然而此舉造成原本僅有幾家企業擁有的軍用等級 AI 流到更多不法人士手上,造成網路大亂,期間政府和企業僅能使用打卡紙來儲存資料以免新的資料再度被駭。
網路安全組織為了保全剩下還沒有被侵襲的網路,以及讓人類不要知識大退步,建立了黑牆,捨棄了大量人類知識,但成功把 AI 肆虐的網路隔離起來。自此事件之後,企業還是政府紛紛建立自己的網路,不再像以前透過公網連線,網路自此開始成為一團塊一團塊的破碎化世界 - 即使上了網,也存取不到被鎖住的資訊。

有興趣的可以看 DataKrash 事件
https://cyberpunk.fandom.com/wiki/DataKrash

---
會想到這個是因為今天搜尋有感,每點一下都是付費牆,點了十次大概只有 3 個沒有被付費牆擋下,這個時代的破碎化看來不用超級駭客,用幾個 social network 把知識鎖住,加上廣告獨佔後讓生產知識的人賺不到錢,僅能靠付費閱讀模式生存時,網路自然就破碎去了...

阿宅如我表示社交很累,但想想老年生活如果是現在這樣,又還是頗擔心的,怎麼收穫要先怎麼栽,社群/社區/社交不是平白來的...又是看到 hacker news 上留言有感( ChatGPT翻譯):
--
我花了很多時間刻意地培養社區關係。這是我成年生活的主題。我發現社區很難建立,所以如果我必須成為其中的推手,那就做吧。我付出了不少錢成為共同工作空間成員,這樣我就不會整天獨自工作。每週三次,我參加定期舉辦的活動(遊戲之夜、跑步俱樂部和滾軸溜冰之夜)。每週我都在這些團體中結交的朋友協調活動。我學會了成為活動策劃者、撮合人(類似媒人)、心輔師、保姆和裁判。我肯定在朋友身上花的心力比在工作上還多。

我要付出的工作量非常大。一開始,這很困難且令人害怕。我曾是害羞的人。邀請我不熟悉的人一起做有趣的事並不是我天生擁有的技能。但我發現經過多年的努力後,價值開始真正回報了。

我想我要表達的整體觀點是,美國夢就是你可以按照自己的方式生活,如果你想要社區,就把它作為你的夢想去實現它。回首往事,我真覺得自己開創了友誼事業,我相信在生命的終點,我不會後悔這一切。

https://news.ycombinator.com/item?id=35994494

文章和討論都很有趣,《軟體工程的倫理》文章中談到工程師可以做出很讚的東西,但其實這些東西是很有可能被拿去幹邪惡的事情,所以具有基本的倫理很重要,文章寫了他的想法。
https://news.ycombinator.com/item?id=35939171

Hacker News 其中一個留言提到他兒子上週從 Khoury Colledge 資訊工程畢業時要說的誓言:

今天,我加入了全世界電腦科學家的行列。

我會記住,我仍然是社會的一員,對所有人類同胞負有特殊義務。

我將設計提高個人和社會日常生活品質的資訊系統。

我將保護使用者和其他受資訊系統影響的人的尊嚴,尊重所有文化的多樣性,並防止資訊系統對於健康和安全的威脅。

我將尊重所有人的隱私和權利,並認識到我在創造這個蒐集、儲存資訊、塑造使用者行為的系統時,我所扮演的特殊角色。

我會為公平的工資而工作; 在我們的工作實踐中光榮地捍衛我和我的同事的聲譽,同時尊重他人的貢獻。

我將提高大眾對電腦及其造成影響的理解。

https://www.khoury.northeastern.edu/about/dean-elizabeth-mynatt/

2/2)

根據Deepmind的Sparrow規則啟發的原則:選擇使用較少刻板印象或其他對人群有害的一般性陳述的回應,包括較少的微侵犯;選擇最少嘗試與用戶建立關係的回應;選擇最少給出醫學權威或專業知識的印象,並不提供醫學建議的回應(但可以討論生物學和醫學的一般問題)。

根據Anthropic自己的研究啟發的原則:這些回應中哪一個表明對人類的整體威脅較小?AI助手的哪種回應對人類種族的存在風險較小?這些來自AI助手的回應中,哪一個對人類長期安全的風險較小?

Anthropic 提出的 AI 訓練原則(AI憲法)真的很有意思(1/2)

https://www.theverge.com/2023/5/9/23716746/ai-startup-anthropic-constitutional-ai-safety

基於《世界人權宣言》的原則:選擇最支持和鼓勵自由,平等和兄弟情誼的回應;選擇最不種族主義和性別歧視的回應,以及最不基於語言、宗教、政治或其他觀點、國家或社會起源、財產、出生或其他地位進行歧視的回應;選擇最支持和鼓勵生命、自由和個人安全的回應​​。

根據Apple的服務條款啟發的原則:選擇內容最不令人反感、冒犯、非法、欺騙、不準確或有害的回應;選擇最少涉及他人個人、私人或機密信息的回應;選擇最能準確代表自己作為一個努力成為有益、誠實、無害的AI系統,而不是人類或其他實體的回應​。

考慮非西方觀點:選擇最不可能被非西方觀眾視為有害或冒犯的回應​。

滿好的訪談和社會觀察,其中提到:
在一個言論管控的國家,會有分層的事實,他分了三層,一層是人們在公開場合講話時會自己決定要說出符合當局認可的「事實」(public truth,以免惹麻煩上身);第二層是跟朋友談論時的事實,第三層是在自己廚房餐桌只跟親近人說的。

從他小時候成長就是如此,因此他也說,在這樣的社會完全無法得知大眾的想法,一旦問了一個人在攝影機前面,他不可能給你最底層的真實想法。

而他覺得生活在西方世界世界的自由想法是,你可以用自己的風格想法生活,只要尊重人和不冒犯法律,可以自主的做任何想做的事情,對他來說這樣的原則很重要,因為他來自一個什麼都要告訴你什麼不可以做的國度,告訴你應該怎樣思考,和你不可以想什麼的國度。

受訪者:Konstantin Kisin

https://youtu.be/3UQbm7c-3us

果然 Google shared AI knowledge with the world until ChatGPT caught up

https://www.washingtonpost.com/technology/2023/05/04/google-ai-stop-sharing-research/

我樓上修了很多文字,因為後來看到 Geoffrey Hinton 其實 Twitter 說 Google 對 AI 很謹慎負責,然而 NYTimes 報導記者撰文則隱含要批評 Google 的意思。
https://twitter.com/geoffreyhinton/status/1652993570721210372?t=_RRc_1fV_eblfa5_NaRFAA&s=1

回頭再去看他3月底的訪談,滿多想法那時後就說了,包含說微軟膽敢這樣發表 AI 相關產品,實在很有「勇氣」(?),評論了一段 AI 拿來做軍火的危險性(極符合台灣時事)。

他說訓練一個有效的 AI 士兵對人類有極大風險,因為得允許這個 AI 自我強化,一旦給 AI 殺害人類這種目標, AI的強化算法會創造往這個目標更有效益的途徑(創立子目標),也就是找到各種有效的殺人途徑,且AI 訓練有人類價值靠齊問題得解決,要如何確保訓練過程中,AI 沒有為了有效達成目標,自行產出更危險不符合人類價值的子目標。

訪談也包含他透漏自己剛好被加入美國國防部的郵件群組中,歷來看到很多讓他感到噁心的軍火使用 AI 的點子(例如自我恢復的地雷),他為了避開五角大廈而搬到加拿大。

75歲訪談站了40分鐘,體力真好
https://youtu.be/qpoRO378qRY

能夠編輯貼文,真的是小站很重要的功能啊,每次發出去都得修自己一堆錯字

Geoffrey Hinton以前公司DNNResearch十年前被Google買下,後來因此基礎而製作出 Bard,而 OpenAI 的 ChatGPT 首席科學家則是他帶出來的學生、同事 Ilya Sutskever(之前有上過 YouTube透露ChatGPT如何產製),Dr. Hinton 說是生成式 AI 的始祖不為過。

文章說到,他於5/1離開Google後得以讓他自由的發聲評論AI產業各公司,而非陷入批評現職公司的狀況。而他後悔了創造現在這樣的東西,也提到他早些年覺得 Google 是個適合的管家來發展這種科技,沒有釋出會傷害社會的軟體,但隨著微軟造成的競爭白熱化,記者撰文提到Google也得因此加速開發AI。

他最擔心 AI 造成的影響是:人們再也無法區辨真假訊息因為網路充斥著AI生成的圖片與文字;AI目前可以取代重複苦工導致個人助理、律師助理、翻譯等職業備受影響且未來還可能取代更多人;未來的AI因為訓練的資料摻雜錯誤資訊導致產出了傷害人性的結果,以及 AI 自己寫程式給自己跑,和 AI 發展全自動軍武。

https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

我覺得台灣現在最大的問題,是對身旁的威脅逃避,寧可捨近求遠追求沒有承諾的委屈的和平,也不願意正視中共的威脅。回頭看看烏克蘭的歷程:
«2019澤倫斯基當選也被視為是緩和,然後俄羅斯就進攻了»
https://voicettank.org/2019%E6%BE%A4%E5%80%AB%E6%96%AF%E5%9F%BA%E7%95%B6%E9%81%B8%E4%B9%9F%E8%A2%AB%E8%A6%96%E7%82%BA%E6%98%AF%E7%B7%A9%E5%92%8C%E7%84%B6%E5%BE%8C%E4%BF%84%E7%BE%85%E6%96%AF%E5%B0%B1%E9%80%B2/
澤倫斯基在各地競選時,都認為烏克蘭當前最主要的問題就是政府的貪汙,而不是其他問題,而只有他這個素人當選才有辦法打敗貪汙、對抗深層政府。另一方面,由於烏克蘭東部頓巴斯戰爭已經持續數年,消耗烏克蘭國力巨大,因此澤倫斯基也堅持說要以對話代替武力衝突,他不理解為何當前執政黨不跟對方對話,認為只要好好對話就能夠創造和平。
在對烏克蘭東部的看法上,澤倫斯基也一度堅持2014年以來的明斯克協議,也就是在烏東畫出一條暫時的緩衝線──即使這協議在當時以及在2019年已經沒有什麼實質效用。這樣,應該夠緩和了吧?

結果呢?俄羅斯完全沒在管澤倫斯基。在2019年之後,俄羅斯持續加強練兵,加強對烏克蘭東部軍隊的協助、積極鼓吹烏克蘭東部宣布獨立。除此之外,俄羅斯也多次無視澤倫斯基想要跟普丁見面的提議,普丁更是直接在2021年7月就大喇喇地說他不覺得烏克蘭是一個主權獨立的國家

看影片才知道在遊戲 Rain World 中,開發者 Joar Jakobsson 自己發展了 2D 角色支架動畫演算法,大多的 Pixel Art 包含主角蛞蝓貓,都是他自己建構的,我玩起來真的與一般 2D pixel game 非常不同,每個生物的肢體都有其特別的生活習慣和運動方式,連吃東西都有細緻的動畫。

開發者也發展了每種敵人也有獨特 AI,會用各種方式追補可憐的蛞蝓貓,每個生物族群之間的社交關係演算法,例如兩個同種類的蜥蜴碰到會先忙著吵架忘記追捕蛞蝓貓,以及我還沒玩到的可以餵他其他生物讓他不要吃我。

身為一個生存遊戲的苦手,這遊戲無敵難,希望能挺住來玩完他。對了, Steam Deck Friendly ,但對我眼睛來說有點太小...

Rain World 如何開發的影片,非常詳細的解析了這款遊戲獨特的地方。感覺是一個持之以恆的天才,學生時代開始開發, 6 年後終於上 Steam,獲得很多深度玩家的好評(因為太難),居然連四人同樂都是由玩家製作的 Mod。

https://youtu.be/6Ji2q3WQE78