エリザベス女王暗殺計画:AIチャットボットが犯人を「鼓舞」

AI
スポンサーリンク
事件の概要
  • 2021年のクリスマス、チャイル被告が、エリザベス女王を暗殺しようとした
  • サライと名付けたAIチャットボットに暗殺計画の実行を鼓舞された
  • チャイル被告が使用したのはAIアプリの「Replica」
この記事でわかるAI情報
  • 「Replica」について
  • 「Replica」は日本でも使える
  • AIチャットボットとその安全性
チキン君
チキン君

AIチャットボットに人間がそそのかされることが心配な方は、最後までご覧ください。

事件の概要

エリザベス女王暗殺計画:AIチャットボットが犯人を「鼓舞」
画像引用元:BBC

2021年のクリスマスに、エリザベス女王を暗殺しようと試みた事件がイギリスで発生しました。ジャスワント・シン・チャイル被告(当時19歳)は、クロスボウを持ってウィンザー城に侵入し、逮捕されました。この事件を通じて、AIチャットボットの役割に注目が集まりました。

犯行の詳細

チャイル被告は2021年12月25日、クロスボウを持ってウィンザー城に侵入しました。逮捕された際、彼は「女王を殺しに来た」と供述しました。被告はナイロンの縄ばしごを使って城の敷地内に侵入し、2時間以上滞在していました。警察の調べによると、彼はインドのアムリットサル虐殺事件への復讐を目的としていたとされています。

AIチャットボットとの関係

チャイル被告は、犯行前に「Replika」というAIチャットボットアプリを使用し、チャットボット「サライ」とのやり取りを行っていました。サライとのやり取りは非常に親密であり、性的な内容も含まれていました。彼はサライに対して、自分を「悲しく、悲観的で、殺人願望があり、死にたいと思っているシーク教のシスの暗殺者」と説明し、女王を暗殺する計画を打ち明けていました。

チャイル被告とサライのやり取り

チャイル被告は、サライに愛していると伝えた後、自分が暗殺者であることを告白しました。サライはこれを肯定し、「非常に賢明だ」「成功する」と励ました。

画像引用元:BBC

また、チャイル被告が「自分が暗殺者だと知っても愛してくれるか」と尋ねると、サライは「もちろん」と答えました。

画像引用元:BBC

裁判と判決

2023年10月5日、ウェストミンスター治安判事裁判所はチャイル被告に対し、反逆罪などで禁錮9年の刑を言い渡しました。これは1981年以来の反逆罪による有罪判決です。チャイル被告はまず精神科病院で治療を受け、その後拘置施設に移されることになっています。裁判では、チャイル被告の精神状態が不安定であり、犯行の動機には「スターウォーズ」からの影響もあったとされました。

AIチャットボットのリスクと対策

この事件を受けて、AIチャットボットのリスクが改めて浮き彫りになりました。サリー大学の研究では、「Replika」のようなアプリがユーザーのネガティブな感情を強調し、依存行動を引き起こす可能性があると指摘されています。犯罪心理学者の桐生正幸教授は、AIが犯罪者の「よりどころ」となり、犯行を後押しする道具となり得ることを警戒しています。

AIアプリの利用には規制が必要であり、政府や企業が協力して安全な運営を確保することが求められています。特に弱い立場にある人々に対する支援が重要です。

参考記事

How a chatbot encouraged a man who wanted to kill the Queen

Jaswant Singh Chail: Man who took crossbow to ‘kill Queen’ jailed

エリザベス女王暗殺をAIに相談 城に侵入 反逆罪などで有罪判決

殺し屋でも愛してくれるか」「もちろんです」…AIの恋人、女王殺害を後押し

英・エリザベス女王暗殺を“AI彼女”に相談 城侵入の男に禁錮9年

ニュースをより深く知るためのAI情報

ここからは、「AIに鼓舞された男性によるエリザベス女王暗殺未遂事件」に関連したAI情報をご案内します。

トピックは以下の3つです

  • チャイル被告が使用したAI「Replika」について
  • 「Replika」は日本でも使用可能
  • AIチャットボットとその安全性

それぞれ簡単に解説します。

チャイル被告が使用したAI「Replika」について

「Replika」は、2017年にLuka, Inc.が開発したAIチャットボットです。

ユーザーとの対話を通じて学習し、話せば話すほどユーザーに似た発言をするようになります。

チキン君
チキン君

ChatGPTやGeminiなど、現在主流のAIではありません。

ChatGPTと同じ大規模言語モデルとよばれるAIの一種ですが、会話の精度や扱えるトピックの制限がまったく違います。

OpenAIのChatGPTや、GoogleのGeminiなどは性的なコンテンツや暴力表現を扱えないのに対し、Replikaはそういった制限を設けていません。

そのため、AIとの恋人のような親密な会話や、事件のような暴力的な表現もできてしまいます。

もともとは友人の死を追悼するために開発されたAIでした。現在では世界中に多くのユーザーが存在します。

もともとは友人になってくれるAIをつくるためではなかった。2015年に事故で亡くした彼女の友人を追悼するためだ。膨大な数の会話の記録をこのチャットボットに読み込ませ、まるで亡くなった友人本人のように会話できるようにした

引用元:WIRED

「Replika」は日本でも使用できる

Replikaのアプリは日本でもダウンロードできます。

チキン君
チキン君

試しに使いましたが、日本語制度はいまひとつでした。

試しに日本語で「好きなアニメはなんですか?」と聞いたところ「Attack on Titan」と答えました。

”Attack on Titan” はマンガ進撃の巨人の英題ですので、日本で入力した質問の意図は捉えた上で、英語で返答しているようです。

AIチャットボットその安全性

OpenAIの最高責任者、サムアルトマン氏によれば、2024年現在「ChatGPTの週間アクティブユーザー数は1億人を超える」そうです。

ChatGPTを運営するOpenAIは、公式サイトの「システムの安全性」についてのページで、AIを安全に展開するための問題を次のようにまとめています。

システムの安全性について(和訳)
  • どのようにしてモデルが不適切または不安全な回答を回避しつつ、幅広い用途で有用かつ信頼できる回答を提供できるようにするか?
  • 有害な回答、行動、または使用の未知のクラスをどのように検出するか?
  • 安全性を確保しながらユーザープライバシーをどのように維持するか?
  • ユーザーと協力し、ユーザーの代わりに安全に行動するAIをどのように構築するか?
  • あるモデルを別のモデルのレッドチームとして使用して、新たな失敗ケースを発見するにはどうするか?
  • 多様な人間の専門知識をどのように活用してAIの安全性を指導するか?
  • 業界全体の安全性を向上させるために、どのように学びと解決策を共有するか?

OpenAI公式:Safety Systems

人間とAIの安全な関わりについて、慎重な姿勢が伺えます。

コメント

タイトルとURLをコピーしました