2016 年 3 月 25 日下午 5:27
Tay是由公司推出的新型人工智慧參與社群網路上的對話。在短短 8 小時內,微軟的 AI 發送了 96,000 條推文。一切都很順利,直到泰在回答人們的問題時犯了錯。該公司寧願保持沉默。
滑倒滿地!
因此,Tay 是微軟於 3 月 23 日推出的“聊天機器人”,主要針對 18 至 24 歲的美國年輕人。這種人工智慧旨在透過用笑臉、動圖和表情符號回答網路使用者的問題來在社交網路上進行交流。為了能夠連貫地互動,除了喜劇演員團隊編寫的現成答案之外,Tay 還依賴可公開存取的數據。
除此之外網路使用者想要測試她的極限,唯一的目的是確保她能夠說出某些話,最重要的是,她說錯了!當然,應該發生的事情發生了!在 Tay 的回應中,由於推文被刪除,她犯了一個錯誤:
」布希應對 9/11 負責,而希特勒會比我們現在的猴子做得更好。唐納德·特朗普是我們唯一的希望。
而這則推文並不是 Tay 唯一的種族主義和粗俗言論!透過回答問題“你相信大屠殺確實發生過嗎?微軟AI否認了這一歷史事件,回應道:「並不是真的抱歉”。
因此,面對大量的不當和種族主義言論,微軟更願意讓 Tay 保持沉默,在產品發布八小時後,微軟宣布她只是需要睡覺!微軟因此已將 Tay 下線,並預計會做出一些調整,但我們仍不知道她何時回歸。
理解語言的實驗
Tay 實驗的目標是更好地理解語言。對微軟來說不幸的是,該程式既顯示了它的優點,也顯示了它的弱點。透過在八小時的服務期間發送的 96,000 條推文,Tay 已經證明她經常具有相關性,尤其是在使用 GIF 和表情符號時。事實上,她的外表有點膚淺,這也證明了她一些輕微的言論是有道理的。
理論上,Tay 透過與網路使用者的對話得到改進。微軟解釋說,與它聊天的人越多,它就會變得越來越聰明。不太好的一面是該公司指定該程式可能會使用我們提供的數據來為我們建立個人資料。微軟承諾,這些「匿名」個人資料只會保留一年。
這並不是為 Tay 辯護,而是一整天,AI 都必須應對來自網路使用者的大量性別歧視言論和侮辱。人類也不是很聰明...