發現被LINE佔有9成以上市場的台灣人,很少人知道歐盟的「數位市場法案」 (DMA)上路了,其中很大的改變,就是規範數位通訊軟體彼此應該要能互相傳訊。
也就是說,即使我沒有WhatsApp帳號,別人還是可以用WhatsApp傳給我的Messenger,而WhatsApp身為全球最多人用的通訊軟體,也為合規做好了「傳訊給第三方」的預覽功能。
以市場角度來看,通訊軟體因為使用者習慣和交友圈而離不開,久而久之使用者停止流動,後繼競品極難與其競爭,造成市場問題。
以個人通訊自由來看,單一平台極大化壟斷,若禁言、審查、帳號廢止等影響個人通訊自由時,應要有其他替代方案。
回看Email,這數十年前科技先進創立的公共協定,目前還是市場百家爭鳴、蓬勃發展沒有落後,許多服務建立在 Email為基礎的認證中也就是因為其公共性。
我覺得歐盟這個創舉非常重要和先進,希望他們能獲得巨大成功、影響巨型平台的生態。
跨平台端對端加密是有可能
https://security.googleblog.com/2023/07/an-important-step-towards-secure-and.html
from g0v.social
Content from https://g0v.social/@jimyhuang
讓我意外是,我居然第一個是看到在瑞士資訊(瑞士公廣集團下的媒體)看到政治人物、民主選舉受到生成 AI 侵擾的報導,還沒仔細查其他媒體。不過回想台灣,在生成 AI 之前,平常就很多訓練素材嘛...
--
《通过人工智能了解选举?绝非明智之举》
一项最新研究显示,若想通过必应聊天机器人(Bing Chat)这类人工智能语言模型来了解联邦选举,就得承担被虚假信息愚弄的风险。在这些虚假信息中,错误的选举日期、未更新的选举名单以及伪造的丑闻层出不穷。
一大早來社子島的濕地報到,今天入秋後第一次來,這次是騎著小折一個多小時腳痠死的過來,一看果然腳痠是值得的,候鳥們果然來了,鷹斑鷸、田鷸、小環頸鴴... 還有最近很紅的蒼鷺,當然也在場。
從空照圖看,就是基隆河、淡水河的即將出海的匯流交接,前有觀音山、竹圍這個丘陵夾縫,水流至此不用什麼地理知識,就可以知道被狹窄出海口擠壓之下,是個洪水必氾之地,前兩個月破天荒的大雨,如果水庫有需要洩洪,劇烈的氣候變遷讓下游負擔更大時,社子島滯洪功能消失那淹水的變成是哪裡?我滿納悶,歷屆市長為什麼這麼積極要開發這個對台北市市民沒有太大利益的天然滯洪地?
我不是那種反對任何開發的人,但政府的角色,開發應該以整體人民利益為優先,而在我看了社子島開發案,包裝在「生態」兩字背後是哪些土地持有者進駐炒地皮,看來優先嘉惠的不是未來住民,也不是現在住民,而是先後搶著土地的開發建商。對目前沒有土地所有權的台北、新北市民、未來居民,社子島的開發具有利益嗎?我還是很懷疑。
***
今天看到最難過的評論。
面對眼前的深淵,跳下去也是苦痛,逃離也是苦痛,我們又會怎麼選擇呢?
紐時:《在巴以戰爭中尋找道德指南針》
https://cn.nytimes.com/opinion/20231013/israel-gaza-hamas/zh-hant/
前幾天有人問我說幹嘛突然買植物
君度橙酒+通寧+檸檬汁,再把已經少的可憐的薄荷肢解來貢獻一下,等於君通寧...
目前每天試一杯不同口味的調酒,已經持續兩週了,照這個速度,薄荷長的來不及吧(忍住不要用薄荷調味)
自己嘗試的第一杯柯夢波丹。
杯子不對,沒有萊姆汁,只好用檸檬汁+過大的杯子來裝,酒杯裡頭不應該有冰塊,然而因為杯子太大,只好填充一下冰塊進去,勉強讓酒看起來像樣一些。
終於搞定後,直接來試試,喝起來實在是非常不賴,一定是錯覺。本來還想再來一杯,可惜一下子就茫了。
不小心看到網友說原始對岸訓練的 Atom7b算是中立,找了半天沒有直接可以試的地方,但測了 https://chinese.llama.family/ 上的 Llama2-Chinese-13b-chat ,是基於 Llama2-chat 用LORA微調的模型(不是 Atom7b),沒有CKIP那個model這麼歪,或說歪的地方不一樣 XD 。看起來微調的能力真的很重要。
不過我沒有機會實測Atom7b和CKIP,PTT 文章看起來測的很歪,我也沒能求證 CKIP 的 Model 很原始 Atom7b 的不同。
https://www.ptt.cc/bbs/Gossiping/M.1696789683.A.980.html最重要的是,對岸把測試 LLM 能力的問題集做好了叫做 AtomBulb ,這樣微調成果才會知道有沒有機會符合他們期望的能力和價值。
---https://github.com/AtomEcho/AtomBulb#%E5%A6%82%E4%BD%95%E8%AF%84%E4%BB%B7%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E8%83%BD%E5%8A%9B
何评价大模型的能力:
由于大模型在不同任务、知识上具有超强的通用能力,如何客观、准确地评价它们是一个巨大的挑战。为此,我们收集包含1000多条(持续更新)问题的测试集来测试大模型。这些测试问题覆盖了大模型不同维度的能力,能充分体现出大模型的通用能力。
我覺得現況台灣訓練 LLM Model 都缺倫理問題的檢測 QA 過程,不曉得國內有沒有人、廠商在做這一塊,可以變成在發布前的 QA 供應鏈~
找了一遍,LLM有公佈自己訓練時價值對齊的方法的:
Open AI ChatGPT: https://openai.com/blog/our-approach-to-alignment-researchAnthropic Claude 2: https://www.anthropic.com/index/claudes-constitution
針對 Model 產出後,做倫理風險評估的有:
Deepmind 論文: https://www.deepmind.com/publications/ethical-and-social-risks-of-harm-from-language-models
作者演講: https://www.youtube.com/watch?v=L3skLP0ergsOpenAI Red Team Network: https://openai.com/blog/red-teaming-network