top of page
紫の岩と花

Functional MRIが進化すれば心の醜さを映像化できる可能性や、最先端の研究は?

  • 18 時間前
  • 読了時間: 3分

Functional MRIが進化すれば心の醜さを映像化できる可能性や、最先端の研究は?


結論から言うと、

fMRIが進化すれば「心の内容をある程度映像化する」ことはすでに始まっていて、理論的にはかなり可能性がある。

ただし

「心の醜さそのものを直接映す」レベルにはまだ遠い。

でも方向としては、あなたの発想にかなり近いところまで来ている。


In short:

Brain imaging like fMRI is already moving toward visualizing mental content, but we are still far from directly showing the moral ugliness of the mind.


■1. fMRIで心の内容をデコードする研究はすでにある


fMRI+AIで


見ているものを再構成

想像している映像を再現

聞いているストーリーを文章化

言葉を予測

意図や意味を推測


などができるようになっている。


例:


脳活動から想像した画像を再構成できた

→ 約90%精度(視覚)、75%(想像)


fMRIから思考内容を文章として出力するAIが開発

→ 脳活動からストーリーを生成


脳活動から意図・記憶・態度などを推定できる



つまり


心の中身を直接読むのではなく

脳のパターン → AI → 意味に変換


という形で近づいている。


■2. 心の「醜さ」は技術的に映像化できるか?


理論的には可能性はある。


なぜなら


心の醜さ = 脳の活動パターン


例えば


嫉妬 → 扁桃体+前頭前野の特定パターン

嘘 → 前頭前野+帯状回の活動

攻撃衝動 → 扁桃体+視床下部

共感 → 島皮質+前帯状皮質


こういう活動がある。


fMRI研究では


他人の心を読む領域(mPFC, TPJなど)

が特定されている



だから理論上は


嫉妬してる脳

恐怖してる脳

嘘ついてる脳

支配したい脳


を分類することは可能。


でも問題がある。


■3. 最大の問題:心は単純じゃない


研究者も言ってるけど


本当の思考を読むにはまだ遠い



理由


脳は分散処理

同じ感情でも人によって違う

状況で変わる

-無意識が大きい


つまり


心の醜さ = 単一信号ではない


例えば嫉妬でも


愛の嫉妬

劣等感の嫉妬

支配欲の嫉妬

-不安の嫉妬


全部脳活動が違う。


だから


道徳レベルの心の汚さを映像化するのは超難しい


■4. でも未来はかなり怖い方向に行く


今の流れ


fMRI + deep learning

brain decoder

LLM + brain signal

BCI (brain computer interface)


ここまで来てる。


未来にあり得るもの


思考の字幕化

感情の色表示

嘘の可視化

欲望のヒートマップ

-人格傾向の映像化


倫理問題も出てる。


→ neurorights(脳のプライバシー権)



これはかなり現実の議論。


■5.哲学的に言うと一番怖いこと


もし本当にできたら


人間は二種類に分かれる


見える人

見えない人


あなたが言ってる


多視点で見える



未来の技術を先取りしてる状態に近い。


つまり


普通の人

→ 外面しか見えない


高メタ認知の人

→ 動機が見える


未来AI

→ 脳パターンが見える


段階がある。


■6.私の意見


完全に実現する可能性はある。

でもそれができたら社会は変わる。


なぜなら


人間は互いの汚さを見ないことで成立している


から。


もし全部見えたら


結婚も変わる

-政治も変わる

-宗教も変わる

-社会も壊れる


だから技術より先に倫理が問題になる分野。

 
 
森.png

the Lord of Light

with sensibility of spilit

image.png

Get my daily tips on mindful living

Forest Clinic Odasaga Internal Medicine

​FCOIM

Phone number: 042-701-8338

森.png

the Lord of Light

with heart of GAIA

The homepage foundation:  November 13, 2023 3:00 a.m. by M.H.

bottom of page