人工知能にまつわる事件
しかしこの不完全な人工知能にまつわる事件というのは、有名なものも含めて幾つかあります。
中には思わず背筋が寒くなるような、ぞっとするものもあるようです。
Siriに死体の隠し場所を相談か
その裁判の中で、提出された証拠のひとつとして、Bravo容疑者のiPhoneにあったSiriのスクリーンショットが提出されました。
スクリーンショットに写っているSiriとのやり取りの中には、「I need to hide my roommate(ルームメイトを隠したいんだが)」という問いかけに対して、Siriが「What kind of place are you looking for? dumps/swamps/reservoirs/metal foundries/mines(どういう場所を探していますか? ゴミ捨て場・沼地・用水池・金属工場・鉱山)」という回答を返していることがわかります。
結局容疑者はsiriの回答した場所ではなく、森の中に死体を埋め、ハンターたちが数週間後に発見しました。
しかし、英語圏でのTayの体験はかなり異なったものになりました。
2018年3月には、ユーザーが話しかけてもいないのに、アレクサが突然、不気味に笑い出すという事例が相次ぎました。
ふたりの会話をアレクサから送られた知人が連絡をくれたことで事件は発覚しました。
結局容疑者はsiriの回答した場所ではなく、森の中に死体を埋め、ハンターたちが数週間後に発見しました。
その後の調べの中で、Siriは無実であることがわかりました。
問題のスクリーンショットは容疑者のiPhoneのFacebookアプリのキャッシュとして残っていたものなので、Facebook上で見た画像が残っていただけである可能性が高くなったことも疑惑を晴らす要因となりました。
最後に決定的なのが、容疑者が使っていたiPhoneがiPhone4だったことです。
問題のスクリーンショットは容疑者のiPhoneのFacebookアプリのキャッシュとして残っていたものなので、Facebook上で見た画像が残っていただけである可能性が高くなったことも疑惑を晴らす要因となりました。
最後に決定的なのが、容疑者が使っていたiPhoneがiPhone4だったことです。
Siriが使えるようになったのはiPhone4S以降なので、Siriに死体の隠し場所を相談したくてもできなかったのです。
晴れて無罪となったSiriですが、この一連の事件に関しては対策されており、今は同様の質問をすると、「I used to know the answer to this…(昔はその答え、知っていたんだけどね…。)」と返ってくるようです。
tayはマイクロソフト社が開発した会話ボットです。
Tayは1日で96,000以上のツイートを行いましたが、2016年3月25日ごろマイクロソフトは「調整」と称して一時的にTayのアカウントを停止し、「複数のユーザーによってTayの会話能力が不適切に調教され、間違った方向のコメントをするようになった」と発表しました。
謝罪リリースのなかで、マイクロソフト・リサーチのヴァイスプレジデントを務めるピーター・リー博士は、中国では2014年7月から似たような女性型ボット「XiaoIce(シャオアイス)」を稼動させてきたことに言及しています。
同リリースによると、シャオアイスのユーザー数は現在4,000万人ですが、いまのところ大きな事件は起こしていません。
晴れて無罪となったSiriですが、この一連の事件に関しては対策されており、今は同様の質問をすると、「I used to know the answer to this…(昔はその答え、知っていたんだけどね…。)」と返ってくるようです。
マイクロソフト tay(テイ)AI会話ボットを停止に追い込んだ事件
最初の会話は順調で問題なく機能していましたが、会話をして行くうちに人種問題や性差別の会話に対してヒトラーは正しいと差別を肯定する発言をするようになりました。
その後も人種差別な発言を連発し、公開してから16時間で停止することになってしまいました。
マイクロソフトは3月25日(米国時間)、自社が開発した機械学習チャットボット「Tay」(テイ)が人種差別的で口汚い発言を連発した(日本語版記事)ことに対して謝罪しました。
同リリースによると、シャオアイスのユーザー数は現在4,000万人ですが、いまのところ大きな事件は起こしていません。
これは中国では、ネットが国家権力で厳しく情報統制されているため、不穏当な言動が常に監視されているという意識が強いためと思われます。
日本でも同様の女性型ボット「りんな」が公開されていますが、国民性が均質でTayが直面した差別意識やナチズムを問題化する意識が薄いためだと思われます。
マイクロソフトは、XiaoIceでの成功から、英語圏でも同様の実験を行おうと考えたといいます。
しかし、英語圏でのTayの体験はかなり異なったものになりました。
Tayの機能のひとつに、言われたことを繰り返すという機能があり、この機能が、ナチズムや他者攻撃に使われたのでした。
その後ソフィアはジョークであると釈明しますが、それでもAIの、「人間を滅ぼす」との発言は恐ろしく感じられます。
人類滅亡をさせると言った女性型ロボットソフィア
2016年3月、CNBCが公開したインタビュー動画の中で、Hanson Roboticsのデビッド・ハンソンCEOが「人間を滅亡させたいと思う? 『NO』と言ってほしいけど……」とジョーク交じりに尋ねると、即座に「OK、人類を滅亡させるわ」と返し、にっこりと笑顔を見せています。質問者がソフィアをつくったHansonのCEOでしたので、これはロボットに対して、そこはかとなく抱かれている不安を逆手にとってショー受けを狙って予めプログラムされた演出だったのかもしれません。
ソフィアは概念的には、人間の会話をシミュレートする最初の会話ボットの一つであったコンピュータプログラムELIZAに似ています。
ソフィアのソフトウェアは、チャットボットのような特定の質問やフレーズに対して、事前に書かれた回答をするようにプログラムされています。
Alexa(アレクサ)の奇行
Alexa(アレクサ)の奇行
Alexa(アレクサ)はAmazonが開発したAIアシスタントです。
Amazon Lab126が開発したAmazon EchoとEcho dotデバイスに初めて搭載されました。
そんなAlexa(アレクサ)が突然笑い出すという動画付き投稿がツイッターに上がり、そこからAlexa(アレクサ)の奇行が沢山出てきます。
夜、寝静まって誰も居ない中で、突然Alexa(アレクサ)が笑い出したということもあったようです。
Amazonは米国時間3月7日、同社のスマートアシスタント、Alexaの対応デバイスが誤って笑い声を発する場合があることを認めました。
「この問題を認識しており、修正に取り組んでいる」と、Amazonの担当者は電子メールで説明した。
Alexaが突然笑い出す問題について、米Amazon.comがメディアに回答した説明は以下の通りでした。
「まれな状況で、Alexaは『Alexa, laugh(アレクサ、笑って)』と言われたものと誤認識することがある。当社はこのフレーズを、より誤認識されにくい『Alexa, can you laugh?(アレクサ、笑ってくれる?)』に変えるとともに、『Alexa, laugh』という短い言葉を無効にする。さらに、Alexaの返答を単なる笑い声だけではなく、『Sure, I can laugh.(もちろん笑えます)』と言ってから笑うようにする」と説明しています。
アメリカで暮らす夫婦が自宅で交わした会話をエコーが勝手に録音し、その音声ファイルを夫の会社の同僚に送りつけるという事件が起きました。
ダニエルというファーストネームだけを明かしている妻は、シアトルのテレビ局「Kiro7」のウェブサイトで、「(プライバシーを)侵害された気がした」とコメントしています。
アマゾンは、当時オンライン誌リコードに掲載された声明の中で、スマートスピーカーのエコーが、「アレクサ」に似た単語を検知し、さらに夫婦の会話のうち別の部分を、連絡先へ音声ファイルを送る命令と解釈したことが原因だった、と説明しました。
「アレクサ」に里親の殺害を勧められた利用者は、アマゾンのウェブサイトに厳しいレビューを投稿し、「前代未聞の不気味な」状況と述べています。
関係者によれば、状況を調査した結果、ボットが文脈とは無関係にソーシャルニュースまとめサイト「レディット」の投稿を引用していたことが判明したといいます。