from g0v.social

5/5) 人類替代方案、考慮和備援

在適當的情況下,您應該有權退出,並可以接觸到能夠迅速考量並解決您的問題的人。在適當的情況下,您應該能夠選擇人類回應備援方案,並退出自動化系統。

適當性應基於特定情境下的合理期望進行確定,並關注確保廣泛可訪問性和保護公眾免受特別有害的影響。在某些情況下,法律可要求採用人類或其他替代方案。

如果自動化系統失效或您希望對其對您的影響提出上訴或挑戰,您應該有權選擇及時的人類回應解決方案。

人類回應的備援方案應易於訪問、公平、有效、維護且伴隨著適當的操作人員培訓,並且不應對公眾造成不合理的負擔。在敏感領域(包括但不限於刑事司法、就業、教育和健康)有預定用途的自動化系統,還應該為其目的進行調整,提供有意義的監督訪問,為與系統交流的任何人提供培訓,對不利或高風險決策時,應納入人類決策參與。

這些人類治理過程的描述以及對其及時性、可訪問性、結果和有效性的評估的報告應盡可能公開。

4/5) 通知和解釋

您應該會知道自動化系統正在運作,並了解它的產出和貢獻如何影響您。
自動化系統的設計師、開發者和部署者應提供可訪問的易懂文件,包括對整個系統運作和自動化作用的清晰描述、告知使用此類系統的人員或組織的負責人,以及易懂、及時、可訪問的結果說明。這樣的通知應保持最新狀態,並且受到系統影響的人應被通知重大使用案例或關鍵功能的更改。您應該知道自動化系統如何決定影響您的結果以及為什麼這樣做,包括在自動化系統不是唯一決定結果的輸入時。自動化系統應提供對您和任何需要了解系統的操作人員有意義、技術上可行和有用的說明,並根據脈絡進行風險層級校準。

這些清晰和品質優良的自動化系統概述、通知和解釋報告,應盡可能公開。

任何同意請求都應該是簡短的,用簡單的語言可以理解,並且讓您擁有可以控制數據收集和特定的使用環境的權力;應該改變目前難以理解的廣泛使用資料通知和選擇做法。
您的敏感資料(包括健康、工作、教育、刑事司法和金融以及與孩童)應優先保護。 在敏感領域,您的資料和相關推斷應僅用於必要的功能,並應受到道德審查和使用禁令的保護。

您和您的社區應該免受未經檢查的監視; 監視技術應受到更嚴格的監督,其中部署前評估至少包括其潛在危害和範圍限制,以保護隱私和公民自由。

持續性的監視不應在教育、工作、住家使用,若要使用此類監視技術須限制其權力、機會或使用權。

只要有可能,您應該有權訪問報告,確認您的資料決定已得到尊重,並評估監控技術對您的權利、機會或使用權的潛在影響。

3/5) 資料隱私

您應該通過內建的保護措施免受資料濫用的影響,並且您應該有權決定如何使用您的資料。
確保資料收集符合合理預期,並且僅收集特定情況下絕對必要的資料,這類保護措施應該是預設的以保護您免受隱私侵犯。

自動化系統的設計者、開發者和部署者應最大可行性下優先徵求您的許可並尊重您關於以適當方式並範圍內收集、使用、訪問、傳輸和刪除您的資料的決定。
在不可行的情況下,應使用替代的隱私設計保護措施。系統在其使用經驗設計和設計決策中,不應採用預設會混淆使用者選擇或讓其承擔侵犯隱私的設置。
只有在可以適當且有意義地給予同意的情況下,才應使用同意來證明收集資料的合理性。

2/5) 演算法歧視保護

您不應遭受演算法歧視,系統應以公正的方式使用和設計。當自動化系統根據種族、膚色、族裔、性別(包括懷孕、分娩和相關醫療狀況、性別認同、間性狀態和性取向)、宗教、年齡、國籍、殘疾、退伍軍人身份、基因信息或任何法律保護的其他分類而對人們造成不合理的不同待遇或不利影響時,就會出現演算法歧視。根據具體情況,這種演算法歧視可能違反法律保護。自動化系統的設計師、開發者和部署者應採取積極和持續的措施,以保護個人和社區免受演算法歧視,並以公正的方式使用和設計系統。這種保護應包括在系統設計中進行積極的公平評估,使用代表性數據並保護人口特徵的代理,確保設計和開發對殘疾人士可訪問性,進行部署前和持續的差異測試和緩解,以及明確的組織監督。為確認這些保護,應進行獨立評估和以易懂的語言報告的演算法影響評估,包括差異測試結果和緩解信息,並在可能的情況下公開。

1/5) 安全有效的系統

您應該於不安全或無效系統下受到保護。自動化系統應該在諮詢來自不同社群、利害關係人和領域專家的情況下開發,以識別系統的擔憂、風險和潛在影響。系統應該經過測試部署來評估風險、識別風險和緩解風險以及持續監控,以展示它們根據其預期使用。緩解超出預期使用範圍的不安全結果,以及遵守這些領域的特定標準。

評估後的保護措施,應包括不部署系統或停止使用系統的可能性。自動化系統不應有危害您或社區的意圖,或任何合理預見到可能危及您或社區安全的狀況。它們應旨在主動保護您免受因意外但可預見的自動化系統使用或影響而造成的傷害。

您應該受到保護,避免在自動化系統的設計、開發和部署中使用不當或不相關的數據,並避免其重複使用結合的傷害。 應進行獨立評估和報告以確認該系統安全有效,包括報告為減輕潛在危害而採取的步驟,並儘可能公佈結果。

重新看了一次 AI Bill of Rights 藍皮書,覺得彙整的滿好的

https://www.whitehouse.gov/ostp/ai-bill-of-rights/

我 lag 半天,結果美國白宮去年12月,其經濟諮詢委員會,就寫了「人工智慧對歐盟和美國勞動力影響」這份報告,其中滿多研究彙整我覺得很中肯,推薦直接看第三部分:AI 對工作的影響

原文報告
https://www.whitehouse.gov/cea/written-materials/2022/12/05/the-impact-of-artificial-intelligence/

Google翻譯難讀版:
https://drive.google.com/file/d/1JoKz9V5_htAj2dqZCGwwKOgqCwTJpcyJ/view?usp=drivesdk

結果報名了半天,還是沒有滿,真的是關心社會演進的人少少,忙著發展(或內卷)的人多出很多啊

2020 年聽到 @poga 在 g0v summit 演講時說的話,來回顧一下

最近各種壓力襲來,還是很想找個出口,不小心看到了這個 Steam Deck 相關延伸螢幕的選擇: Nreal Air... 根本是把 deck 當外出工作機的救星啊。

本來很生火要剁手,但查了一下眼鏡仔有點棘手,怕鏡片度數不合嘗試失敗,以及是中國公司投資出品,讓我消火了不少。

很好奇這麼小眾的產品,有沒有人剛好用過呢...

https://youtu.be/ZLVJvlja3FM

20% 的漲幅,換公司真的就換腦袋,不曉得 Akamai 在台灣有沒有代理商可以開發票,讓我省 20% 剛好抵銷啊