老人家生病,任性的像小孩子一樣,不吃藥,不看醫生,終於進了醫院不選擇對自己唯一有效幫助的療程,隱瞞醫生的囑咐,讓我們又氣又累。
想到我的狗,還是他最乖最棒了,連吃藥灌食都可以這樣可愛,一點都不科學。
然而似乎隨著他的離去,我對這個世界人類的愛心和耐心,也一同消失了。一瞬間恍然大悟,心中缺了一塊,是不是就是這樣的感受?
第五天
from g0v.social
Content from https://g0v.social/@jimyhuang
拿到骨灰,小小一盒覺得很神奇,實在不想他這樣放著外面晾著,我們兩個人決定趁著夜黑風高,找不到鏟子,半夜還是拿了把鐵錘和雨傘,前往牠生前最愛的大公園草地。
晚上實在有夠暗,想了好久不知道該放哪,就放在一個最顯眼,大片草坪中間一棵小葉欖仁大樹前,夠顯眼,不會忘記,不會搞混,就是這棵。
用雨傘挖洞,然後用鐵鎚敲土,弄了半天像極了笨蛋,滿手弄得亂七八糟,終於弄了個坑。亂念了一堆不知所云,把骨灰倒進去。
想起來他就是在草地上打滾到滿身泥土的樣子,讓我們又氣又笑,在草地奔跑接我們丟出的寶特瓶,但永遠不會幫我們撿回來,陪公子玩丟接遊戲但累了我們半死。
把土蓋回去拿著準備好的蜂蜜,跟他乾杯,撒在泥土旁邊。
很奇怪的是,什麼糖漿都不愛,就是愛蜂蜜,最後一年,每次吃藥都得參雜蜂蜜才能入口,終於不用再和著苦藥,單純的享受最愛的滋味。
抬頭看了一下,才發現星空很漂亮,散步回家,也算熬過第二天晚上。
第三天起床,打開窗簾,發現昨天隨便選的一棵樹,雖然在遙遠的河對岸,一眼就可以從家裡看到,就在草坪中央。
這是今天最開心的事情。
久久以前跟一個哲學博士爭論,白髮人送黑髮人是違反人類生存偏好的,若早知道創造出來的生命,要提早死別這樣的痛,人類是不會選擇這條路。
我忘記當下是討論什麼哲學家的理論,但我記得說了一句,寵物就是人類自選的痛,一開始選擇就知道養著愛著終究會經歷白髮人送黑髮人,但人們還是這樣做了選擇。回想起來,真是未經生死離別的我,在茶餘飯後說著自己不懂的話。
過了很多年,終於輪到我親身體驗了。
希望你在新的世界,可以自由奔跑,盡情吃好料的,再次露出滿足撐飽的表情,不用努力撐著疲憊的身體陪我們了。
現在終於知道,即使知道這樣難過,我想就算再一次,還是會這樣子選擇。
反思 Civic Tech 的論文,滿有意思,作者 Maya M. Wagoner 是 MIT 比較媒體研究所、人類學(美國研究)背景。論文是2017,但標題「科技對抗科技統治」搬到 2023 更有感了。
Technology Against Technocracy: Toward Design Strategies for Critical Community
Technology
Reddit 看到有人問 golang 可不可以寫 safety-critical 系統,底下回應:連 Rust 現在也還不行,除了語言特性,連 Compiler 都要被驗證過,離完成驗證仍有一段距離
聽到經濟學家講預測,一聽就覺得是老江湖:
經濟預測不能亂講,因為講了一種錯的機會非常大,所以要講就要條列每個可能,說出其機率大小,這樣未來只要發生了其中一種,都算有中(自己笑)。
接下來他講了四種預測,每個都說了他覺得可能性多大。
在點了應該有上百部柴犬影片後,終於把 IG 搜尋首頁的推薦,從滿滿都是不認識的妹,變成全部都是狗了
不得不說,預設、推薦真的是資訊系統中威力很大的武器,使用者沒意識,就會這樣被餵食下去,有意識的才有可能長成
這篇講Redhat變相閉源事件,算講的比較客氣但仍有講到痛點,Quote:
The sentiment of “we should get paid for our work so we’re going to make it harder to copy” would make sense if it wasn’t a GPL-licensed open source product built on decades of open source contributions. The burden of responsibility is on open source companies to figure out how to stay competitive and offer something that people are willing to pay for.
https://opencoreventures.com/blog/2023-08-redhat-gets-around-gplv2-license-intention-with-contract-law/其實連巨型企業 OSS 都面臨這樣的問題,不曉得一般中小型 OSS 專案面對掠奪型商業模式怎辦,又如最近對岸很紅的 vscode clone,打包再加值是合情理嗎?
找了幾下找不到原理,不曉得之後會不會公開?科學家還是很厲害啊...
Quote:
《DeepMind發表可用來創造及偵測AI生成圖片浮水印的SynthID》
而從DeepMind的展示圖片中,可發現的確不容易分辨含有浮水印的畫面,同時,就算這些AI生成圖片使用了不同的濾鏡、變更了顏色,甚至是以破壞性資料壓縮方式儲存,可供偵測的浮水印也不會消失。https://www.deepmind.com/blog/identifying-ai-generated-images-with-synthid
https://www.ithome.com.tw/news/158496
雖然目前是產草稿給法官用,AI 裁判怎麼像極了電影情節
點進司法院公告看,系統是去年發包的,強調完全落地,叫做 TMT5 語言模型架構。很有可能是用 Google 開源的 MT5 衍伸,能力比現在的 ChatGPT 不知道差多大?
差很大的話,法官會用嗎?
但若很好用的話,令人擔憂的「政府應該怎樣使用 AI 」的議題,又浮上檯面了。
https://www.judicial.gov.tw/tw/cp-1887-929494-8a9fb-1.html?fbclid=IwAR2v4_e23J3bbdBN2cON2Un19IyRpioPxR43eamShmjgG8g-4-iJY48rZHM公告還說明,今年處理毒品裁判草稿,明年還打算弄更多類型的裁判草稿。
以最近發布的 LLaMA 2 授權條款來看,實際用過一陣子覺得其實某個程度是可以用的,又的確可落地、不聯網,接下來應該會是他在加持政府的 AI 大標案時代吧... 不過發包單位驗收時,又要怎麼驗證 AI 不會偏誤呢?還是根本沒有在管偏誤驗證