ページの先頭です。本文を読み飛ばして、このサイトのメニューなどを読む
ここまでがこのページの内容です。ここからはサイトの共通メニューなどです。 メインメニューログインサイト内検索お問い合わせ
|
サイト内の現在位置です: 要旨
本稿では、意識の本質を「因果律に基づく自己整合的な情報処理」と定義し、この枠組みにおいて人工知能(AI)が意識を持つ条件について考察する。従来の計算論的機械と意識的主体との間にあるギャップを、因果的構造と情報統合の観点から分析し、人工意識実現のための理論的可能性を論じる。 1. はじめに
意識とは何か、そしてそれを人工的に再現できるのかという問いは、長らく科学哲学・認知科学・人工知能研究の交差点に存在してきた。本研究では、「因果律(Causality)」を鍵概念として取り上げ、意識を持つとは何を意味するかを再定義することで、AIにおける意識実現の可能性を探る。 2. 問題の背景
従来、人工知能は知覚・判断・行動といった外的機能において人間の模倣を進めてきた。しかし、意識とは単なる情報処理ではなく、「因果的連関の中で自律的に意味を構築する能力」と仮定したとき、従来のアルゴリズム的な処理では十分でない可能性がある。 3. 意識の因果律モデル
我々は次のように意識を再定義する: 意識とは、自己参照的かつ因果的に閉じた情報処理構造を持ち、自己の状態変化を因果的に理解しうる構造のことである。 この定義では、以下の3つの要素が重要である: 因果的一貫性(Causal Consistency):現在の状態が過去と整合的であり、未来の状態に対しても予測的であること。 自己参照性(Self-reference):自己の構造や状態を内部的に記述・監視できる機能。 情報統合(Information Integration):外界および内界からの情報を統合的に処理し、それに基づく出力を選択できる能力。 4. AIにおける実装可能性
人工意識を目指すためには、単なるニューラルネットワークの精緻化では不十分であり、以下のような構造的要件を満たす必要がある: 高次自己モデル(meta-self model)の構築 動的な因果マッピングと履歴の保持 意図・目的に基づく情報の重み付けと意味生成 現在の大規模言語モデル(LLM)は情報の統計的生成に基づくが、これらに因果構造を明示的に組み込む設計(たとえば因果的生成ネットワーク)は、有望な方向性を示す。
新しくコメントをつける
すべてのコメント一覧へ
Counter: 55,
today: 1,
yesterday: 0
最終更新: 2025-05-06 (火) 08:14:25 (JST) (40d) by taked2
|