【悲報】韓国企業開発のAIチャット、人種差別やヘイトスピーチを学習して問題に「何故なのか…」

続きを読む
はてなブックマークに追加
1: ライオン(長野県) [BR] 2021/01/16(土) 07:13:12.09 ID:vX0YOVtf0● BE:323057825-PLT(13000) sssp://img.5ch.net/ico/syodai_mona.gif
韓国の人工知能(AI)関連スタートアップ企業が開発したAIチャットボット(自動会話プログラム)が騒動の渦中にある。
「イ・ルダ」という名のこのチャットボットは、ソーシャル・ネットワーキング・サービス(SNS)
「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されている。
昨年12月23日にサービスを開始して以降、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えた。

 しかし、イ・ルダの開発意図とは違い、女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けた
ヘイトスピーチ(嫌悪発言)を相次いで発して問題になった。
「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と、
「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答える。
同性愛者については「それってホント、ゾッとする。質が低く見えるじゃない」と答えた。
とうとう、開発会社SCATTER LABは11日、問題として指摘された部分について、
「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明を出した。

 人気を集めていたイ・ルダはなぜこのようなヘイトスピーチをするようになったのだろうか。
嶺南大学メディア情報学科のパク・ハヌ教授は「AIは開発者が提供したデータどおりに学習し、行動するが、
イ・ルダの場合、データ自体が偏向的だったのだろう」と指摘した。
イ・ルダはモバイルアプリで収集された10-20代の恋人同士によるカカオトークのチャット約100億件を学習し、
これをもとにユーザーとチャットしていた。
このチャットの中ににじみ出ていた韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習したということだ。

悪い友達と付き合ったらAIもグレちゃった
http://www.chosunonline.com/site/data/html_dir/2021/01/15/2021011580008.html


https://hayabusa9.5ch.net/test/read.cgi/news/1610748792/

新着画像

注目記事

新着記事

【AKB48】メンバーは宿先のホテルでAVをよく見るらしい【村山彩希】2021/10/30 15:03
弊社情シス、ZIPと別メールでパスワードを送る運用に疑問を感じ画期的なシステムを導入!2021/10/30 14:11
【AKB48】酒にグッズを浸すのはもう古い!これからのオタ活を変える新グッズが登場!!2021/10/30 14:03
広島カイル・バードが31日帰国 去就は未定 今季加入し中継ぎワンポイントなどで33試合登板2021/10/30 14:00
「ベストヒット歌謡祭」にAKB48が出演決定!2021/10/30 13:03
【女性自身】怒りのぱんつ告発で支持を集めた元バイトAKBラーメン屋店主、数々の疑惑噴出し大ピンチ2021/10/30 12:03
【祝】指原莉乃のYoutubeが登録者数100万人突破!!!【さしはらちゃんねる】2021/10/30 11:03
【AKB48G】2021年度MVP渋谷凪咲、新人王本郷柚巴、カムバック賞本田仁美、逆MVP鈴木優香2021/10/30 10:03
ロッテ小窪哲也が現役引退「本当に幸せなプロ野球人生でした」13年プレーしたカープにも感謝2021/10/30 10:00