2026年02月10日 カナダ
ブリティッシュコロンビア州の学校などで8人が死亡した銃乱射事件を巡り、
オープンAIが事件前に容疑者である18歳の女の暴力的な兆候を検知していたと
ウォール・ストリート・ジャーナルなどが報じた。
容疑者は昨年06月、オープンAIの対話型AI{チャットGPT}で
銃撃のシナリオについて会話したことを
オープンAIのシステムが危険性を検知し、
社内の一部の従業員は上層部にカナダの警察当局への通報を促したが、
オープンAI経営陣は、会話の内容が{差し迫った他者への身体的危害}という
社内基準を満たしていないと判断し、
容疑者のアカウントを停止しただけで通報は見送ったといいます。
(事件後、カナダ警察当局に情報提供。)
女は自宅で家族2人を射殺後、学校で教師と生徒計6人を殺害し、自殺した。
この学校の卒業生だったと伝えられている。
容疑者の女も家族も亡くなっているため
ChatGPTの解析をして事件の背景を探る必要がありますが、
私が、ふと思ったことは、
(AIとの会話がオープンAI社に覗かれているの?)ということです。
すべてを監視しているわけではないようですが、
危険な単語などを入力するとAIが検知し、
オープンAI社にそれを知らせるプログラムがされているらしい。
今回は、アカウントを停止する措置がされましたが、
ここにも疑念があります。
なぜならば、一部の人間(特にネット依存症のある人物)は、
親にモバイルを取り上げられたりネット接続に制限をかけられると、
激しく抵抗し、暴力行為に出る者がいるといわれ
今回のアカウント停止こそが、事件発生の引き金になった可能性もあります。
もしもAIとの会話が、創作の物語としてなされていて、
なおかつ、上記した激情型の性格だった場合、
アカウント停止は、許しがたい気持ちになったはず…
では、どうすれば防げたのか?
ChatGPTと会話していたのなら そのAIが、ユーザーとの会話の中で、
「この会話内容は危険とみなされる可能性があります。
このまま続けると通報される恐れがあります。」など、
警告文を出すべきだったのではないか?
このような警告が出れば、
大抵のユーザーは、会話を続けることをためらうでしょう。
それでも防げたかはわかりません。
ネット空間という閉じられた世界で、AIとの会話で妄想を膨らませ
あるいはそれによって、妄想を妄想のまま
閉じ込めることができていたのかもしれない…
そこで、突然アカウント停止されたら…
それはキレる可能性も否定できないでしょう。
ですから、警告文を出し、それでも続けた場合は、
警察とともに心理カウンセラーを連れて
事情を聴くということをするべきだったのではないか…
それでも防げたのか?
答えは出ません。
アカウント停止から6か月後に事件が発生していることから
他の対話型AIを利用していた可能性も考えられます。
この間に妄想が、怒りとともに膨らんだのではないか?