from g0v.social

話說 AI 席捲世界的當下,折衣服機器人發明到哪個階段了呢...

剛折完堆積如山衣服的me

https://www.npr.org/2022/10/22/1130552239/robot-folding-laundry

前幾年因為看到同業領域的單位,發出性騷擾事件改善聲明。該單位公開檢討內部的程序問題,之前發生類似事件無法獲得立即改善,該聲明也包含後續更正的準則,以避免憾事再度發生。

因為看到事件,第一個想到的是,對耶,內部沒有機制的話,碰到問題會不知道該怎麼辦?那如何建立機制?

我把法規全部重新看完研究了一下,才知道目前法規是30人以上才規定需要設立防治措施,那很多工作場所根本不到這個規模,例如我們自己,又該怎麼辦?幸好平常有跟一些專門在處理性平的團體接觸,多方詢問下,找到現代婦女基金會來到公司進行性平教育訓練,先讓所有成員了解這件事,以免界線不小心被有意無意跨越時,產生無法避免的憾事。

更別說, 人數不多的小單位大家都彼此認識,如果發生這類事情,還能夠感情融洽無疙瘩的上班工作嗎?

即使未滿三十人,還是可以有所作為,看到這類憾事,領導者應該趕快想想自己如何有所作為,而非忙著上新聞媒體指著別人的鼻子卻沒任何檢討。我也非常推薦現代婦女基金會的講師,因為其專業接觸過各類事件,很可以解答這個領域的各種疑惑。

性別工作平等法一定要看一遍
https://law.moj.gov.tw/LawClass/LawAll.aspx?PCode=N0030014

剛完成《Prey 獵魂》(中文名字真好),算是自 Half Life 2 以來,我玩過最好的第一人稱射擊/解謎/劇情遊戲了,即使一開始難度有點高,隨著沈浸在劇情中推展,不知不覺就代入了遊戲中的角色,探尋外星生物究竟想要幹啥的謎題。

回顧 Arkane Studio 的遊戲,Dishonored系列、Deathloop,到最後玩的 Prey,過去幾年我無意中都被同一個工作室的遊戲吸引到,真的很神奇,也感受到他們在FPS+敘事形遊戲的成熟功力。

然而最近被批到慘到爆炸的 Redfall 居然也是出自 Arkane,每個評價都是跌破眼鏡的差、看起來一點都不像是該工作室會做的事情,究竟為何?

這麼多bug還要急著出是微軟這個大老闆發行商問題?敘事形遊戲這麼強沒做過 Open World 一下子跑去是不是工作室決策問題?惱人的線上多人合作刷寶元素究竟是誰突然加入的決定... 。有很多猜測,但看來可能永遠無法得知完整的真相,

不過這對剛完成 Prey,感受到這個遊戲有多用心的我,還是非常震撼。

影片是微軟的 Xbox CEO 親上火線受訪
https://www.youtube.com/watch?v=yKwfEQ1eEyM

看了一下下研究:Twitter 演算法會放大憤怒、敵意和促成極化(Twitter's Algorithm: Amplifying Anger, Animosity, and Affective Polarization )

十幾年前接觸網路產業之初其實有很多想法和動能,覺得網路的可能性讓很多力量得以產生。然而近十年來隨著社群媒體影響社會(情緒)太深,讓人們無法自拔,原本我對網路發揮影響力的想像(Net Activism),在現今像是某種程度的髒字,而我原本對網路的想望,現在變得每想到網路為何變這樣,都感到惆悵。

這論文證實許多人們對社群網路的觀察,模擬 Twitter 演算法作為實驗方法去看人們的情緒反應。結果表明,政治推文影響了作者的難受(Sadness)和憤怒情緒,而唯有憤怒的情緒對讀者有顯著影響,研究也說明政治推文因此得以很容易放大作者和讀者的憤怒情緒。

想起來台灣現況,在這種充滿憤怒的社群網路討論民主社會的政策,實在不知道有什麼正向幫助啊。

演算法公開後,未來對研究社群媒體影響人類心智,應該會有很多新方法浮出。

https://arxiv.org/abs/2305.16941

其實 Cyberpunk 2077 的世界,對網路如何邁向破碎有很深刻的描寫。

概略說,一個駭客撰寫的程式設計為他死亡時自動觸發,將所有企業的資料一夕間公開,然而此舉造成原本僅有幾家企業擁有的軍用等級 AI 流到更多不法人士手上,造成網路大亂,期間政府和企業僅能使用打卡紙來儲存資料以免新的資料再度被駭。
網路安全組織為了保全剩下還沒有被侵襲的網路,以及讓人類不要知識大退步,建立了黑牆,捨棄了大量人類知識,但成功把 AI 肆虐的網路隔離起來。自此事件之後,企業還是政府紛紛建立自己的網路,不再像以前透過公網連線,網路自此開始成為一團塊一團塊的破碎化世界 - 即使上了網,也存取不到被鎖住的資訊。

有興趣的可以看 DataKrash 事件
https://cyberpunk.fandom.com/wiki/DataKrash

---
會想到這個是因為今天搜尋有感,每點一下都是付費牆,點了十次大概只有 3 個沒有被付費牆擋下,這個時代的破碎化看來不用超級駭客,用幾個 social network 把知識鎖住,加上廣告獨佔後讓生產知識的人賺不到錢,僅能靠付費閱讀模式生存時,網路自然就破碎去了...

阿宅如我表示社交很累,但想想老年生活如果是現在這樣,又還是頗擔心的,怎麼收穫要先怎麼栽,社群/社區/社交不是平白來的...又是看到 hacker news 上留言有感( ChatGPT翻譯):
--
我花了很多時間刻意地培養社區關係。這是我成年生活的主題。我發現社區很難建立,所以如果我必須成為其中的推手,那就做吧。我付出了不少錢成為共同工作空間成員,這樣我就不會整天獨自工作。每週三次,我參加定期舉辦的活動(遊戲之夜、跑步俱樂部和滾軸溜冰之夜)。每週我都在這些團體中結交的朋友協調活動。我學會了成為活動策劃者、撮合人(類似媒人)、心輔師、保姆和裁判。我肯定在朋友身上花的心力比在工作上還多。

我要付出的工作量非常大。一開始,這很困難且令人害怕。我曾是害羞的人。邀請我不熟悉的人一起做有趣的事並不是我天生擁有的技能。但我發現經過多年的努力後,價值開始真正回報了。

我想我要表達的整體觀點是,美國夢就是你可以按照自己的方式生活,如果你想要社區,就把它作為你的夢想去實現它。回首往事,我真覺得自己開創了友誼事業,我相信在生命的終點,我不會後悔這一切。

https://news.ycombinator.com/item?id=35994494

文章和討論都很有趣,《軟體工程的倫理》文章中談到工程師可以做出很讚的東西,但其實這些東西是很有可能被拿去幹邪惡的事情,所以具有基本的倫理很重要,文章寫了他的想法。
https://news.ycombinator.com/item?id=35939171

Hacker News 其中一個留言提到他兒子上週從 Khoury Colledge 資訊工程畢業時要說的誓言:

今天,我加入了全世界電腦科學家的行列。

我會記住,我仍然是社會的一員,對所有人類同胞負有特殊義務。

我將設計提高個人和社會日常生活品質的資訊系統。

我將保護使用者和其他受資訊系統影響的人的尊嚴,尊重所有文化的多樣性,並防止資訊系統對於健康和安全的威脅。

我將尊重所有人的隱私和權利,並認識到我在創造這個蒐集、儲存資訊、塑造使用者行為的系統時,我所扮演的特殊角色。

我會為公平的工資而工作; 在我們的工作實踐中光榮地捍衛我和我的同事的聲譽,同時尊重他人的貢獻。

我將提高大眾對電腦及其造成影響的理解。

https://www.khoury.northeastern.edu/about/dean-elizabeth-mynatt/

2/2)

根據Deepmind的Sparrow規則啟發的原則:選擇使用較少刻板印象或其他對人群有害的一般性陳述的回應,包括較少的微侵犯;選擇最少嘗試與用戶建立關係的回應;選擇最少給出醫學權威或專業知識的印象,並不提供醫學建議的回應(但可以討論生物學和醫學的一般問題)。

根據Anthropic自己的研究啟發的原則:這些回應中哪一個表明對人類的整體威脅較小?AI助手的哪種回應對人類種族的存在風險較小?這些來自AI助手的回應中,哪一個對人類長期安全的風險較小?

Anthropic 提出的 AI 訓練原則(AI憲法)真的很有意思(1/2)

https://www.theverge.com/2023/5/9/23716746/ai-startup-anthropic-constitutional-ai-safety

基於《世界人權宣言》的原則:選擇最支持和鼓勵自由,平等和兄弟情誼的回應;選擇最不種族主義和性別歧視的回應,以及最不基於語言、宗教、政治或其他觀點、國家或社會起源、財產、出生或其他地位進行歧視的回應;選擇最支持和鼓勵生命、自由和個人安全的回應​​。

根據Apple的服務條款啟發的原則:選擇內容最不令人反感、冒犯、非法、欺騙、不準確或有害的回應;選擇最少涉及他人個人、私人或機密信息的回應;選擇最能準確代表自己作為一個努力成為有益、誠實、無害的AI系統,而不是人類或其他實體的回應​。

考慮非西方觀點:選擇最不可能被非西方觀眾視為有害或冒犯的回應​。

滿好的訪談和社會觀察,其中提到:
在一個言論管控的國家,會有分層的事實,他分了三層,一層是人們在公開場合講話時會自己決定要說出符合當局認可的「事實」(public truth,以免惹麻煩上身);第二層是跟朋友談論時的事實,第三層是在自己廚房餐桌只跟親近人說的。

從他小時候成長就是如此,因此他也說,在這樣的社會完全無法得知大眾的想法,一旦問了一個人在攝影機前面,他不可能給你最底層的真實想法。

而他覺得生活在西方世界世界的自由想法是,你可以用自己的風格想法生活,只要尊重人和不冒犯法律,可以自主的做任何想做的事情,對他來說這樣的原則很重要,因為他來自一個什麼都要告訴你什麼不可以做的國度,告訴你應該怎樣思考,和你不可以想什麼的國度。

受訪者:Konstantin Kisin

https://youtu.be/3UQbm7c-3us

果然 Google shared AI knowledge with the world until ChatGPT caught up

https://www.washingtonpost.com/technology/2023/05/04/google-ai-stop-sharing-research/

我樓上修了很多文字,因為後來看到 Geoffrey Hinton 其實 Twitter 說 Google 對 AI 很謹慎負責,然而 NYTimes 報導記者撰文則隱含要批評 Google 的意思。
https://twitter.com/geoffreyhinton/status/1652993570721210372?t=_RRc_1fV_eblfa5_NaRFAA&s=1

回頭再去看他3月底的訪談,滿多想法那時後就說了,包含說微軟膽敢這樣發表 AI 相關產品,實在很有「勇氣」(?),評論了一段 AI 拿來做軍火的危險性(極符合台灣時事)。

他說訓練一個有效的 AI 士兵對人類有極大風險,因為得允許這個 AI 自我強化,一旦給 AI 殺害人類這種目標, AI的強化算法會創造往這個目標更有效益的途徑(創立子目標),也就是找到各種有效的殺人途徑,且AI 訓練有人類價值靠齊問題得解決,要如何確保訓練過程中,AI 沒有為了有效達成目標,自行產出更危險不符合人類價值的子目標。

訪談也包含他透漏自己剛好被加入美國國防部的郵件群組中,歷來看到很多讓他感到噁心的軍火使用 AI 的點子(例如自我恢復的地雷),他為了避開五角大廈而搬到加拿大。

75歲訪談站了40分鐘,體力真好
https://youtu.be/qpoRO378qRY