日本大百科全書(ニッポニカ) 「ホップフィールド」の意味・わかりやすい解説
ホップフィールド
ほっぷふぃーるど
John J. Hopfield
(1933― )
アメリカの物理学者。イリノイ州シカゴ生まれ。1954年スワースモア大学(物理学専攻)卒業、1958年コーネル大学で物理学の博士号を取得。AT&Tベル研究所に勤務後、フランスの高等師範学校(エコール・ノルマル・シュペリュール)で博士研究員として働き、1961年カリフォルニア大学バークレー校の助教授、準教授を経て、1964年プリンストン大学教授。1980年カリフォルニア工科大学の化学および生物学の教授。1997年にプリンストン大学に分子生物学の教授として復帰、2008年に退職し、その後同大学名誉教授。
今日の人工知能(AI)につながる機械学習は、高度な脳回路(ニューラルネットワーク)をヒントに発展してきた。1940年代以降、脳の神経細胞(ニューロン)が、多数結合してネットワークをつくり、情報を出力することをコンピュータ上で再現する、人工ニューラルネットワークが構築された。多数のノード(コンピュータ上の情報の結合点。神経細胞どうしが接合する部分〈シナプス〉に相当)の相互作用に強弱をつけることで、パターン学習ができることを機械学習は示したが、実際にできることは限定的だった。
機械学習の研究を加速させたのは、ホップフィールドが1982年に発表した「ホップフィールド・ネットワーク」とよばれる数理モデルである。磁性物質の挙動を説明するために使われる物理モデルを使って、新たなニューラルネットワークを構築するもので、磁石の原子は、それぞれ上向き、下向きのスピンをもつが、原子がどちらを向くか、各原子の相互作用の強さによって決まる。エネルギーが安定したところで落ち着くが、ホップフィールド・ネットワークは、これを白、黒のノードで表し、特定のパターンになったときに、相互の作用が最小になるように決定することで記憶できる。これによって不完全なデータが入力されたとき、記憶されたデータのなかから入力データに近いものを呼び出す「連想記憶モデル」を可能にした。
ホップフィールド・ネットワークをさらに発展させたのが、認知心理学者のジェフリー・ヒントンらが1985年に提唱した「ボルツマン・マシン」である。統計物理学的な確率論を応用し、入力されたノードのネットワークのほかに、隠れたネットワークを構築することで、同じ入力パターンから、考えられるいくつものパターンを出力できるようになった。今日の生成AIにつながる機械学習の基礎となるもので、ヒントンはさらに2000年代により精度の高い多層構造のボルツマン・マシンを開発、今日の深層学習(ディープラーニング)につながる契機となった。
ポップフィールドは、アメリカ物理学会から1969年バックリー賞と、1985年生物物理学賞を受賞したほか、1988年マイケルソン・モーリー賞、1997年ニューラル・ネットワーク・パイオニア賞、2001年ディラック・メダル、2005年アインシュタイン賞、2019年ベンジャミン・フランクリン・メダル、2022年ボルツマン賞を受賞。2024年、「人工ニューラルネットワークによる機械学習を可能にする基礎的発見と発明に対する業績」で、トロント大学名誉教授のヒントンとともにノーベル物理学賞を受賞した。
[玉村 治 2025年2月14日]