from g0v.social

任何同意請求都應該是簡短的,用簡單的語言可以理解,並且讓您擁有可以控制數據收集和特定的使用環境的權力;應該改變目前難以理解的廣泛使用資料通知和選擇做法。
您的敏感資料(包括健康、工作、教育、刑事司法和金融以及與孩童)應優先保護。 在敏感領域,您的資料和相關推斷應僅用於必要的功能,並應受到道德審查和使用禁令的保護。

您和您的社區應該免受未經檢查的監視; 監視技術應受到更嚴格的監督,其中部署前評估至少包括其潛在危害和範圍限制,以保護隱私和公民自由。

持續性的監視不應在教育、工作、住家使用,若要使用此類監視技術須限制其權力、機會或使用權。

只要有可能,您應該有權訪問報告,確認您的資料決定已得到尊重,並評估監控技術對您的權利、機會或使用權的潛在影響。

3/5) 資料隱私

您應該通過內建的保護措施免受資料濫用的影響,並且您應該有權決定如何使用您的資料。
確保資料收集符合合理預期,並且僅收集特定情況下絕對必要的資料,這類保護措施應該是預設的以保護您免受隱私侵犯。

自動化系統的設計者、開發者和部署者應最大可行性下優先徵求您的許可並尊重您關於以適當方式並範圍內收集、使用、訪問、傳輸和刪除您的資料的決定。
在不可行的情況下,應使用替代的隱私設計保護措施。系統在其使用經驗設計和設計決策中,不應採用預設會混淆使用者選擇或讓其承擔侵犯隱私的設置。
只有在可以適當且有意義地給予同意的情況下,才應使用同意來證明收集資料的合理性。

2/5) 演算法歧視保護

您不應遭受演算法歧視,系統應以公正的方式使用和設計。當自動化系統根據種族、膚色、族裔、性別(包括懷孕、分娩和相關醫療狀況、性別認同、間性狀態和性取向)、宗教、年齡、國籍、殘疾、退伍軍人身份、基因信息或任何法律保護的其他分類而對人們造成不合理的不同待遇或不利影響時,就會出現演算法歧視。根據具體情況,這種演算法歧視可能違反法律保護。自動化系統的設計師、開發者和部署者應採取積極和持續的措施,以保護個人和社區免受演算法歧視,並以公正的方式使用和設計系統。這種保護應包括在系統設計中進行積極的公平評估,使用代表性數據並保護人口特徵的代理,確保設計和開發對殘疾人士可訪問性,進行部署前和持續的差異測試和緩解,以及明確的組織監督。為確認這些保護,應進行獨立評估和以易懂的語言報告的演算法影響評估,包括差異測試結果和緩解信息,並在可能的情況下公開。

1/5) 安全有效的系統

您應該於不安全或無效系統下受到保護。自動化系統應該在諮詢來自不同社群、利害關係人和領域專家的情況下開發,以識別系統的擔憂、風險和潛在影響。系統應該經過測試部署來評估風險、識別風險和緩解風險以及持續監控,以展示它們根據其預期使用。緩解超出預期使用範圍的不安全結果,以及遵守這些領域的特定標準。

評估後的保護措施,應包括不部署系統或停止使用系統的可能性。自動化系統不應有危害您或社區的意圖,或任何合理預見到可能危及您或社區安全的狀況。它們應旨在主動保護您免受因意外但可預見的自動化系統使用或影響而造成的傷害。

您應該受到保護,避免在自動化系統的設計、開發和部署中使用不當或不相關的數據,並避免其重複使用結合的傷害。 應進行獨立評估和報告以確認該系統安全有效,包括報告為減輕潛在危害而採取的步驟,並儘可能公佈結果。

重新看了一次 AI Bill of Rights 藍皮書,覺得彙整的滿好的

https://www.whitehouse.gov/ostp/ai-bill-of-rights/

我 lag 半天,結果美國白宮去年12月,其經濟諮詢委員會,就寫了「人工智慧對歐盟和美國勞動力影響」這份報告,其中滿多研究彙整我覺得很中肯,推薦直接看第三部分:AI 對工作的影響

原文報告
https://www.whitehouse.gov/cea/written-materials/2022/12/05/the-impact-of-artificial-intelligence/

Google翻譯難讀版:
https://drive.google.com/file/d/1JoKz9V5_htAj2dqZCGwwKOgqCwTJpcyJ/view?usp=drivesdk

結果報名了半天,還是沒有滿,真的是關心社會演進的人少少,忙著發展(或內卷)的人多出很多啊

2020 年聽到 @poga 在 g0v summit 演講時說的話,來回顧一下

最近各種壓力襲來,還是很想找個出口,不小心看到了這個 Steam Deck 相關延伸螢幕的選擇: Nreal Air... 根本是把 deck 當外出工作機的救星啊。

本來很生火要剁手,但查了一下眼鏡仔有點棘手,怕鏡片度數不合嘗試失敗,以及是中國公司投資出品,讓我消火了不少。

很好奇這麼小眾的產品,有沒有人剛好用過呢...

https://youtu.be/ZLVJvlja3FM

20% 的漲幅,換公司真的就換腦袋,不曉得 Akamai 在台灣有沒有代理商可以開發票,讓我省 20% 剛好抵銷啊

160 小時,法環真是個讓我很難難形容的遊戲。

令我印象最深刻的是遊戲的場景關卡設計,整個開放世界體驗非常善用垂直世界的空間,無論是謎題還是探索地圖本身,再也不是傳統的開迷霧歷程,得考究自身地理位置,用地圖比對所有可能前往目的地的路徑,因為大多時候目的地與自己會被巨大的地形所阻隔,抬頭看觀望底下有沒有隱藏路徑,也成為到每個斷崖必要的舉動。

其次是戰鬥,我絕對不是魂系列的玩家,而且第一次魂系嘗試就被《隻狼》那個超高難度戰鬥打趴。不過法環的戰鬥設計成可運用非常多不同的戰術,比起硬派的跟魔王比拼,換武器,找幫手,用遠距,用替身... 最終還是可以克服那個高高的阻礙,更像是可以不斷換角色的開放世界格鬥遊戲。

最後是故事, WTF 為什麼不能好好說故事,一定要用各種隱晦的箴言,要玩家特別打開埋藏在武器說明的片段故事,才可能拼湊出來一點點故事樣貌。最後完成遊戲時,說真的我還是不知道為何法環會破裂,故事也跟他一樣破碎,而且都上市了一年,現在還是有各種不一的解釋。也為了這個故事,我的 YouTube 推薦一時塞滿了法環相關解析影片...

不過我終究還是完成它了,這是我感受值上花時間最久的遊戲。

AI 襲來的時代,這種討論人類該何去何從的活動,應該多多來推廣

--

《二十一世紀機器人新律》新書分享會!作者來台親自分享!

是時候該討論如何更積極介入由AI打造的新社會了!而不只是讓演算法黑箱作業。也不能只是批評演算法,而是要在政策、立法和倫理議題上,有具體的原則和作法,建立課責制度,當AI產品違反社會秩序時,我們有完善的制度可以追究責任。

時間|3月11日(六)1930-2100
講題|〔請問ChatGPT〕人類如何在AI時代,避免失去自身利益?
講者|法蘭克・巴斯夸利 Frank Pasquale (《二十一世紀機器人新律》作者、美國布魯克林法學院教授)

https://plainlawme.neticrm.tw/civicrm/event/info?reset=1&id=31