1: ライオン(長野県) [BR] 2021/01/16(土) 07:13:12.09 ID:vX0YOVtf0● BE:323057825-PLT(13000) sssp://img.5ch.net/ico/syodai_mona.gif 韓国の人工知能(AI)関連スタートアップ企業が開発したAIチャットボット(自動会話プログラム)が騒動の渦中にある。 「イ・ルダ」という名のこのチャットボットは、ソーシャル・ネットワーキング・サービス(SNS) 「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されている。 昨年12月23日にサービスを開始して以降、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えた。 しかし、イ・ルダの開発意図とは違い、女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けた ヘイトスピーチ(嫌悪発言)を相次いで発して問題になった。 「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と、 「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答える。 同性愛者については「それってホント、ゾッとする。質が低く見えるじゃない」と答えた。 とうとう、開発会社SCATTER LABは11日、問題として指摘された部分について、 「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明を出した。 人気を集めていたイ・ルダはなぜこのようなヘイトスピーチをするようになったのだろうか。 嶺南大学メディア情報学科のパク・ハヌ教授は「AIは開発者が提供したデータどおりに学習し、行動するが、 イ・ルダの場合、データ自体が偏向的だったのだろう」と指摘した。 イ・ルダはモバイルアプリで収集された10-20代の恋人同士によるカカオトークのチャット約100億件を学習し、 これをもとにユーザーとチャットしていた。 このチャットの中ににじみ出ていた韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習したということだ。 悪い友達と付き合ったらAIもグレちゃった http://www.chosunonline.com/site/data/html_dir/2021/01/15/2021011580008.html https://hayabusa9.5ch.net/test/read.cgi/news/1610748792/