物理モデルの原因性

僕も最近モデルについて考えていました. 物理の人はモデルは今のところ現実を反映したもので正しい, とした上で次を考える(から元のモデルは正しい前提が暗黙にある). 統計の人はデータからモデルを作るけど, それは嘘モデルで, 実際に正しいかどうかはわからないとはっきり言う. ただし予測性能の高いモデルを作ることは出来ました, という印象です.


http://d.hatena.ne.jp/manga/20080311#p1

いろいろ考えてみました。妄想ですが。知識が足りないのでイメージ書きます。
物理の法則というのは、たとえば、ニュートンの法則だと、対象も現象も数式も非常にシンプルで、イメージしやすく、そういう実感イメージの強力さが、法則の正当力の強さ、法則が現象を動かしているという逆転感覚、につながっているように思います。
物を押すと動いた、軽いものを押して動かした、重い物を押して動かした、という体験(実験結果)が、 F=ma という法則を作った、はずなのに、今はまるで、 F=ma だから、この重さならこれくらいの強さで押せば動く、のように言えてしまう。いや、そう言えるのはおかしなことではなく、そういう予測ができることが法則の存在理由のうちのひとつなのかもしれないからそれでいいのですが、問題なのは、まるで、「力」というものが現実に存在し、「F=ma」という法則に基づいて機能している、ように思えてしまう、という点です。あくまで、現象はただ現象としてあり、多くの現象(実験)から得られる多くの観測結果をグラフの上に点で書き込んでいき、その点の並びが、現象に対する原因としての法則ではなく、純粋に、点の幾何学的・数式的規則性・ばらつき具合、が法則となる、はずなのに、と思います。
でも実際に「力」というのはあるだろう、と言ったときの「力」は、すでにF=maであるような力として想定されてしまっているので、順序が逆です。統計のモデルは物理モデルのような内在的・原因的想定をしていないような気がします。だからそれは嘘(モデル)でしかないし、予測性能が高いかどうかだけが問題となるのではないか、と思います(何も知らないのに想像してすみません……)。物理モデルはもう最初から、なんか仕切っているものがある、と決めてかかっている感じがします。決めてかかっているような気がするのに、予測は絶対に当たり、何か仕切っているものがあるとしか考えられない、ことになっています。

あと単純にニュートンの法則が正しいか正しくないかの話はしても胡散臭いだけで仕事にならないけど, 凄い難しいモデルがあってそれが正しいか正しくないかみたいなことは実際に研究者の人でやってる人がいる気がします. バイオの人はそういうことを良くしているイメージがあります. 物理じゃないけど.

凄い難しいモデル、複雑なモデル、は、内在的原因を想定しようにも無理なので、統計的にやるしかないのだろうなあ、と思います。直感イメージが喚起されるようなシンプルな数式になりにくい、といいますか。狙いが最初から違うのかもしれませんが。今実際にモデルができるかどうか、作ったモデルより予測性能の高いモデルがあるかどうか、が重要な問題となる状況なら、正しいか正しくないかが熱い話題になりそうです。
物理、特に古典物理は、予測がものすごく合うというか、予測が合わなかったら測定方法がおかしい、というレベルなのだろうし(何も知らないのに想像してすみません……)、力どころか重力も実際にあるとしか考えられない、のが凄いです。だから、たとえば「修正ニュートン力学」のようなものをどう考えるか、ということが考えどころになるのではないか、と思います。F=maにちょっと定数を付け足すとうまくいった、で済む話なら、統計的な雰囲気もしますが……。