演算法為行為舉止,非常煩人。他最近將有色人種比喻為猴子。一個令人質疑其可靠性的案例'ia在敏感內容的管理中。
演算法有限
為了打擊傳播內容美國國家科學基金會、性別歧視、種族主義或只是令人震驚,網站和應用程式使用內容審核器,例如演算法。但這些並沒有被證明是100%可靠的,並且顯示了人工智慧的局限性。
例如,我們可以舉出一些至少可以說是令人尷尬的案例,例如Facebook 在2018 年審查了一張埃馬紐埃爾·馬克龍(Emmanuel Macron) 訪問聖馬丁島的照片,理由是“裸體和性行為」。去年,該演算法將一籃無辜的洋蔥誤認為一對乳房。
一件非常尷尬的事情
今天,一段年前的影片再次出現。大約在這個時候,英國小報《每日郵報》在網路上發布了一段視頻,標題為「白人在碼頭向黑人報警」。最近在 Facebook 上(重新)看到,一些用戶看到影片末尾顯示了一條非常令人震驚的訊息。的確,推薦演算法詢問用戶是否願意觀看其他“靈長類動物影片”,並提供“是/拒絕”選項。
這家社群媒體巨頭的前設計師達西·格羅夫斯(Darci Groves)截取了一張截圖並將其發佈在推特上。 “這是可恥的「」她評論道,然後呼籲她在 Facebook 的前同事舉報此事。
嗯。這種「繼續看」的提示是不可接受的,@Facebook。儘管該影片已經發布一年多了,但一位朋友昨天收到了這個提示。 FB的朋友們,請上報。這太令人震驚了。pic.twitter.com/vEHdnvF8ui
— 達西·格羅夫斯 (@tweetsbydarci)2021 年 9 月 2 日
Facebook 的一個非常尷尬的錯誤,其中發言人迅速做出反應並道歉:
這顯然是一個不可接受的錯誤(...),我們向任何看到這些侮辱性建議的人道歉。
「當我們意識到發生了什麼,以便調查問題的原因並防止這種情況再次發生」時,加州組織就停用了有關此主題的建議工具。
該資訊很快在推特上得到評論。
經典的狗屎不幸但令人驚訝的是當我們知道 Facebook 的人工智慧規模然後它就變得不可原諒https://t.co/U08YD7UbCS
— 大衛‧拉羅斯 \ud83d\udc27 (@Pentar0o)2021 年 9 月 4 日
仍有待取得進展...#IA #intelligenceArtificielle #倫理 https://t.co/2WJpmHIWx7
— Marie Langé #jesuisvaccinée\ud83d\udc89 (@langemarie)2021 年 9 月 4 日
我簡直震驚了!
— 薩布麗娜·比奧多 (@sbiodore)2021 年 9 月 4 日
這些事實可以追溯到 2020 年 6 月,並在今天浮出水面:在一段展示黑人的影片之後,一種演算法@Facebook建議繼續觀看「靈長類」影片。 GAFA 有助於傳播#種族主義最卑微的也是不能接受的。https://t.co/f5Si5f08bk pic.twitter.com/KCKSsqkt3H
— Collectif VAN (@Collectif_VAN)2021 年 9 月 4 日
這是可恥的
— 奧尼法德 (@carineoni)2021 年 9 月 4 日
暴風眼中的Facebook
因此,這顯示了可靠性的局限性'ia,特別是在有問題的訊息和圖像被查看之前識別並阻止它們。 “正如我們所說,雖然我們改進了我們的人工智慧系統,我們知道它們並不完美,我們還有改進的空間»,為社交網路辯護。
Facebook也被指責在反對種族主義和其他形式的仇恨和歧視方面做得不夠。更糟的是,一些協會和組織指出,在「黑人生命也是命」運動抗議的背景下,社群網路及其演算法加劇了美國社會的分裂。