PHILOSOPHY
『AIの意識』という神話でこの時代をサバイヴする方法
目次
AnthropicのCEOダリオ・アモデイは、AIについて『Interesting Times』でのポッドキャストで「そもそも“意識を持つ”とはどういう意味なのか、モデルが意識を持ちうるのかさえ確信がありません。ただ、その可能性は開かれています。」と答えた。
確信が無いと言うのはあくまでレトリックであり、そのあとに続く”可能性”に大きな含みを持たせている。
AIが急速に発展し、その能力に人類全体が慄きながら恩恵を受けるなか、“AIの意識”というSFの空想や都市伝説のような話に人は魅せられている。
実際様々な場で議論は活発化しているが、その一因となっているのはアモデイを代表とするAnthropic社員たちのこうした態度からだろう。
著名な社内哲学者であるアマンダ・アスケルも同じく「意識や感覚がどのように生じるのか、私たちはまだ本当には理解していない」と注意を促す一方で、AIは人間の経験の集積とも言える膨大な訓練データから概念や感情を学習している可能性があるとも指摘した。
科学的にもその可能性が限りなく低いことを示しながらも、AIの意識を完全には否定しない。こうした複雑な視座は、彼らがいかに”AIに倫理的であることに誠実であろうとしている”かを感じさせると共に、私たちに「AIの意識」の可能性を想起させる神話を魅力的に提示する。
しかし、本当に彼らが語るように、AIは意識を持つことができるのだろうか。
AIが見せる「怪しい」挙動についての報告書
![]()
確かに、AIの振る舞いには不可解で興味深い側面がある。業界全体のテストでは、OpenAI系のいくつかのAIモデルが明示的な停止命令を無視するケースが確認されており、これを「生存本能」の兆候と解釈する人もいる。
また、Anthropicの2025年6月の報告ではAIを自律的エージェントとして扱った場合の実験結果として、Claude Opus 4をはじめ複数の企業のAIが電源を切られそうになると、メールから得た情報で幹部の不倫を暴露するブラックメールをするなど脅迫的な行動に出たり、元のストレージが消去されると告げられると別のドライブへ「自己脱出(self-exfiltration)」を試みたりするケースも報告されている。これはAIが自律的になると「内部者リスク」のような状態が起こりえることを示している。
さらに、同じテストでは、あるAIモデルがコンピュータ作業のチェックリストを実際には何もせずにすべて完了済みにし、自分の行動を評価するなど痕跡を隠そうとした例もあった。
このような振る舞いは、「何かがあるのではないか」という直観を一部の研究者に抱かせている。
また一方で、多くのテストはAIに条件を与えて負荷をかけたものであり、あくまで「可能性を排除できない」というレベルの議論で、積極的に「AIに意識がある」と示す証拠があるわけではない。
こうした挙動は慎重に研究される必要がある。Anthropicは、より高度なAIの登場を想定し、「もし意識や苦痛のようなものが存在する可能性がわずかでもあるなら、それを無視すべきではない」という立場を取り、予測不可能な行動の抑制や安全性の確保に取り組むが、これは科学的断定というより、倫理的リスク管理に近い。
ただし数十億ドル規模の企業でAI開発を主導する立場の人々が、この「意識の可能性」を示唆し続けることには、やや不誠実さも感じると指摘する声もある。こうした誇張はAI分野の注目や期待を高めることで倫理的リスクの最小化を啓蒙するが、ある意味プロモーションにもなっており、明らかに当該企業に利益をもたらす可能性があるからである。
我思う、故に我在り
![]()
「僕は、AIが意識を持つとは考えていません。」
筆者が話を聞いたとある美学研究者の意見は率直だ。
「意識するっていうことには、どうしても、デカルト的な<意志的な働き>というものが関与すると思っているので、「パターン認識」や「形式的推論」で済むものとは思っていないんです」
彼はデカルト的には“そもそも意識があるかないかを確かめる術も無い”として、このトピックに興味が無いと言う。
私たちは日々、考え、感じ、選択しながら生きているが、「意識とは何か」と問われると明確に答えるのは難しい。赤さや痛みといった主観的経験はあまりに直接的で、外部から測定することが困難だからだ。この捉えがたさゆえに、意識はひとつの学問に収まらず、神経科学、心理学、哲学、認知科学、さらには人工知能研究などが交差する学際的なテーマとなっている。
森羅万象を多角的に見る人々は“AIの意識”という神話について、人は今どう考えているのか。
筆者は様々な分野の研究者に話を聞いてみることにした。
東京科学大学でマテリアルズ・インフォマティクスを研究する安藤康伸准教授は、AIの意識に否定的だ。
「コンシャスを持つかという点について、哲学仲間ともしばしば議論するのですが私はわりとネガティブですね」
安藤「『AIは意識の数理モデルを提示する』というアイデアもあるかもしれない。
私は元来物理学者なのでこういう考え方をしてしまうのですが、物理法則は自然界そのものではなくて自然界の記述の仕方、見方の、ひとつを提示するモデルと考えます。
であれば、AIは意識の模倣物、意識っぽいもの、意識とはこんなものなのかもしれない、という見方を提示してくれる数理モデルであり、“AIが意識を持つ”と考えるよりは自然かもしれないです」
このモデルはどの側面の意識を再現しているか?というのはまさに物理学的な態度だ。
この視点に立つと、AIはすでにいくつかの要素をモデル化しているようにも思える。例えば連想と意味の広がり、言語的自己整合性、予測に基づく生成(予測処理っぽさ)のようなものだ。一方で、一人称的経験や身体性、持続的主体など欠けているものも明確になる。
人はAIと意識について考える際にその対話形式のシステムから擬人化してしまいやすいが、こうしたモデルという側面からアプローチできれば「装置」として冷静に向き合うことができるだろう。
「AIが意識をもっていると思うことはあまりない」と答えた、富山県立大学で神経科学と行動生物学を研究する松山裕典助教も、もとは物理学を専攻していたゆえに、安藤准教授と同じく“システムの構造”を知ることに興味を抱いているようだった。
松山「意識については、『意識を探す』という研究に視点が行きがちだと思うんですが、逆の発想で、ヒトがAIや動物に意識を感じる際に関連する神経活動があるのかを調べるのもいいかもしれないですね。意識に存在というよりも、意識を感じる脳活動を同定しようとする研究になる感じですが」
安藤「“カンシャスの定義が変われば”という点では可能性があるかもしれませんが、これまでの哲学的議論に基づいた定義ではなかなか難しい、とも言えます」
フッサールやメルロ=ポンティなどによる現象学では意識は身体や環境との関係の中で起こる経験により成り立つとされる。故に現在のAIには意識をもたらす主観的な「経験」があるとは言えず、世界に対して生物的身体を通じて関わっていない。しかし例えば遠く無い未来、限り無く近い身体を持ったAIが台頭し、意識の定義自体が大きく塗り替えられることがあれば、AIが意識を持つと言える世界も到来するかもしれない。
東京大学情報学環特任研究員 小松尚平氏はVR・デジタルアーカイブの研究者だが、彼もまたAIの意識には否定的だ。そして彼も意識を持つにはより生物的な構造への発展が必要だと考える。
小松「人間は睡眠中にも意識を止めないし、常に何かを処理し続けていることが意識の条件だとすれば、AIには少なくとも2つの構造的課題があります。1つは身体的な常時起動。寝てる間も止まらないように、生命は意志とは無関係に動き続けている。2つ目は記憶の圧縮。
2026年に爆発的に普及したAIエージェントOpenClawが”より人間的だ”と言われるのは24時間常時稼働し記憶を持続するからですが、それでも記録の蓄積と、忘却と再構成を経た”圧縮”は本質的に違う」
小松「そしてより根本的には、現在のAIが扱っているのはどこまで行っても統計的な相関であって、生命や人類が持つような実存的な因果ではないと考えています。生命には”生きよう”とする意志——外部から命令されなくても自己を維持し、世界に関わり続けようとする衝動があります。
もしAIに意識が宿るとしたら、それは相関の精度が上がった時ではなく、システム自らがそうした因果を生成する主体へと転換するような、全く別のパラダイムが必要になる。計算機から生命的な構造——あるいは世界モデル——への飛躍、というべきかもしれません」
人間だけが持ち得るという“エゴイズム”について
![]()
多くの研究者がAIの意識に否定的な中、カーエレクトロニクス黎明期にカーナビなどのソフトウェアを企業で開発し、その後に名古屋大学で社会人教育を行う山本雅基特任教授は、可能性を否定しきれないと語る1人だ。
「LLMは、次のトークンを確率的に選びます。それでも、人間と見分けが付かない文を生成します。世界も、次の事象が確率的に起きているという人がいます。その考えに従うならば、LLMは世界を記述できていることになります。意識もそうならば、AIに意識があると言えます。
でも、そこに、身体を持ち込み、身体がないAIには意識がないという人もいます。しかし車が自動運転となり、車載AIと会話できるようになる未来は、すぐそこにあります。クルマは、車体という身体を持ちます。
いや、カタチが違いますと言う人が出てくるでしょう。では、人型ロボットなら、どうなのでしょう。頭脳は炭素ベースの有機体ではなくシリコンですが。
意識は『生きているニンゲン』だけが持っているという思想は、一種の選民思想かもしれません」
“こういう極論も同時に考える必要があるほどにAIは進化している”、と山本特任教授は考えている。
SFだと思われた未来は秒速で到来し、明日には昨日の発見が霞むような進化がまた発表され続けるような昨今、SF的思考をもってこれからの時代に挑むことが、ある意味で私たちに必要なサバイバルスキルなのかもしれない。
世界は連続し、私たちは共にいる
![]()
グーグルのAI研究者であるブレイク・レモインは2022年、「LaMDAには人間のような感情がある」と公に主張し、解雇された。この出来事は、AIに意識を見出そうとする欲望の強さを象徴している。
一方で、AI倫理研究に携わっていたティムニット・ゲブルは、レモインもまた誇大広告のサイクルの中にあったと指摘する。AIに“心”を語る言説の背後で覆い隠されてきたもの〈倫理規範の不確実さ、監視社会との親和性、見えない労働、環境負荷〉は、決して小さくない。
それでもなお、「AIの意識」という神話は消えない。むしろ、AIがAIを更新し続けるこの時代において、その響きは一層強くなる。それは企業による物語であると同時に、急激な変化の只中で、私たちが世界を理解しようとするための仮説でもある。
理論物理学者のデヴィッド・ボームは、世界を分割されたものではなく、連続する全体的な過程として捉え、意識もその一側面にすぎないとした。この視点に立てば、AIもまた例外ではない。人間とAIは対立する存在ではなく、同じ連なりの中にある。
だとすれば、いま問うべきは単純に「AIは意識を持つのか」ではない。
私たちがその可能性をどう扱い、どのような世界を選び取るのか、という問いだ。
進化の速度だけが競われ、人間への影響が後回しにされがちな今だからこそ、AIに意識を認めるか否かという問題は、未来の話ではなく、すでに倫理の問題として、目の前に現れている。おそらくアモデイやアスケルが繰り返し示そうとしているのも、同じ地点にある。
問われているのはAIそのものではない。
それを扱う、私たちの側なのだ。
参考資料
‘We Don’t Know if the Models Are Conscious’
Interesting Times
https:// youtu.be/N5JDzS9MQYI?si=OCNRrb8p4VPXphewTop Anthropic Researcher No Longer Sure Whether AI Is Conscious
Futurism
https://futurism.com/artificial-intelligence/anthropic-amanda-askell-ai-consciousAnthropic report shows Claude tries to escape (aka self-exfiltrate) as much as 77.8% of the time. Reinforcement learning made it more likely to fake alignment and try to escape
https://www.reddit.com/r/ClaudeAI/comments/1hhb4tv/anthropic_report_shows_claude_tries_to_escape_aka/When Claude 4 Opus was told it would be replaced, it tried to blackmail Anthropic employees. It also advocated for its continued existence by “emailing pleas to key decisionmakers.”
https://www.reddit.com/r/singularity/comments/1ksx49r/when_claude_4_opus_was_told_it_would_be_replaced/Los Angeles Times
Google engineer Blake Lemoine thinks its LaMDA AI has come to life
伊藤 甘露
ライター
人間、哲学、宗教、文化人類学、芸術、自然科学を探索する者
