PC あたり 1 テラフロップスに達したにもかかわらず、昆虫の脳をモデル化することはまだできていません。自己学習型、自己開発型のニューラル ネットワークの適切な実装を見た人はいますか?
8 に答える
興味深い実験で、ラットの脳の物理的な神経レイアウトをデジタル ニューラル ネットワークにマッピングし、重み付けを MRI などを使用して取得した各コンポーネントのニューロン化学に基づいてモデル化しているのを見ました。非常に興味深い。(新しい科学者またはフォーカス、2 号前?)
IBM Blue Brainが頭に浮かぶ http://news.bbc.co.uk/1/hi/sci/tech/8012496.stm
あなたが正しく指摘しているように、問題は計算能力です。しかし、ニューラル ネットワークへの一連の刺激の場合、その刺激がより深くネストされたノードに遭遇するため、計算の範囲は指数関数的になる傾向があります。複雑な重み付けアルゴリズムは、各ノードで費やされる時間が高くつく可能性があることを意味します。ドメイン固有のニューラル マップは、特殊化されているため、高速になる傾向があります。哺乳類の脳には多くの一般的な経路があるため、それらを教えることや、コンピューターが特定の空間/時間で実際の哺乳類の脳をモデル化することは困難です。
実際の脳には、静電気のような大量のクロストークもあります (一部の人々は、これが創造性や独創的な思考の源であると考えています)。脳はまた、「直接的な」刺激/報酬を使用して学習するのではなく、関連のない過去の経験を使用して、独自の学習を作成します。計算空間では、ニューロンを再作成することと、正確な学習を作成することは別のことです。ドーパミン (昆虫のオクトパミン) やその他の神経化学物質は気にしないでください。
デジタルブレインLSDや抗うつ剤を与えることを想像してみてください。実際のシミュレーションとして。素晴らしい。それは複雑なシミュレーションになると思います。
あなたは、ニューラル ネットワークがどのように機能するかについての私たちの考えが、大規模なレベルでの脳の優れたモデルであると仮定していると思います。それが良い仮定かどうかはわかりません。何年も前まで、グリア細胞が精神機能にとって重要であるとは考えられていませんでした。長い間、脳が成熟した後は神経新生はないと考えられていました。
一方、ニューラル ネットワークは、明らかに複雑な機能をうまく処理しているように見えます。
では、ちょっとしたパズルの質問があります。人間の脳の計算は、何テラフロップスまたはペタフロップスを表すと思いますか?
ジェフ・ホーキンスは、ニューラルネットは脳の近似としては不十分だと言うでしょう。彼の「知性について」は素晴らしい読み物です。
うん: OpenCogはそれに取り組んでいます。
構造です。現在、人間の脳と同等またはそれ以上のパフォーマンスを備えたコンピューターがあったとしても (いつそこに到達するかについてはさまざまな予測がありますが、まだ数年はかかります)、それをプログラムする必要があります。今日、私たちは脳の多くを知っていますが、まだまだ知らないことがたくさんあります。そして、これらは単なる詳細ではなく、まったく理解されていない広い領域です。
Tera-/Peta-FLOPS だけに注目することは、デジタル カメラでメガピクセルだけを見るようなものです。多くの要因が関係している場合に、1 つの値だけに注目します (そして、それらの要素はカメラよりも脳にいくつかあります)。また、脳をシミュレートするのに必要な FLOPS の数の多くはかなり外れていると思いますが、それはまったく別の議論です。
2007年に、彼らは実際の速度の半分で10秒間、半分のマウスの脳に相当するものをシミュレートしました:http: //news.bbc.co.uk/1/hi/technology/6600965.stm
C.エレガンスという名前のワームがあり、その解剖学は私たちに完全に知られています。すべての細胞がマッピングされ、すべてのニューロンが十分に研究されています。このミミズは生まれながらに興味深い特性を持っており、それは生まれた温度域のみに従って成長するというものです。ここに論文へのリンクがあります。この論文では、ニューロンモデルを使用してプロパティを実装しています。そして、このニューロンモデルを使って、光の濃淡のある領域の中で暗い領域だけを追うロボットを作った学生もいます。この作業は他の方法を使用して行うこともできましたが、上記のリンク先の論文で証明されているように、この方法はよりノイズ耐性があります。