概要
- サム・アルトマンは、国際AI規制機関の必要性と、AI権力の少数への集中が人類を破局へ追い込む可能性があると警告したと明らかにした。
- 彼は、数年以内のスーパーインテリジェンス到達の可能性と、2028年ごろにはデータセンター内に世界の知的能力が存在し得るとの見通しを示したと伝えた。
- アルトマンは、民主的AI、技術の分散と開放、労働市場の変化の中でも、新しくより良い雇用が生まれるとの慎重な楽観論を維持したと明らかにした。

サム・アルトマン OpenAI最高経営責任者は18日(現地時間)、インド・ニューデリーで開かれた「第4回 人工知能(AI)インパクト・サミット」で、AIガバナンス構築の必要性を公の場で強調した。国際原子力機関(IAEA)に類似する「国際AI規制機関」を設置すべきだとも述べた。
アルトマンCEOはこの日の演説で「世界は核拡散を監視するIAEAのような専任の規制機関を、AI分野でも早急に構築しなければならない」とし、「現在の制度とスピードでは技術進歩に追いつけない」と主張した。アルトマンは、強力なAI技術と資源が少数の企業、少数の国に集中すれば「人類を破局へ追い込むリスクが生じる」として、これを緩和するための超国家的規制と共同監視体制の必要性に言及した。
また、AIの発展速度は想定より速い可能性があるとの見通しも示した。アルトマンは「数年以内に初期形態の真のスーパーインテリジェンスに到達し得る」とし、「2028年ごろには世界の知的能力の相当部分が、人間の脳ではなくデータセンターの中に存在するようになるかもしれない」と予測した。さらに「いわゆるスーパーインテリジェンスは、研究・経営・戦略立案など多様な領域で人間の科学者や経営者を上回る存在になるだろう」と述べ、この水準のAIが登場する前に国際社会としての安全装置と責任構造を先に設計すべきだと強調した。
AI規制・ガバナンスを巡る国際的議論が本格化する中、世界のビッグテックを代表する人物が公の場で「IAEA型のAI監督機関」と「スーパーインテリジェンスの数年内到来の可能性」を同時に取り上げた点で、市場と政策当局の双方にメッセージを投げかけたと評価される。
アルトマンは、AI権力の集中がもたらす政治・経済リスクを浮き彫りにし、「民主的AI(democratic AI)」という概念を前面に押し出した。彼は「AIの民主化こそが、人類が繁栄する最良の道だ」と位置付けた。その上で「一社または一国にAIが過度に中央集権化することは、人類全体に大きな危険をもたらし得る」と警告した。アルトマンは、AIは自由と人間の選択権を拡張する方向で設計されるべきだと強調し、そのための3つの軸としてAIへのアクセス性、実際の活用・採用、利用者の主体性を提示した。さらに「AIは少数の統制手段ではなく、多数の生産性ツールであるべきだ」とし、技術の分散と開放、相互運用性を繰り返し強調した。
労働市場と実体経済に関する質問には、慎重な楽観論を維持した。アルトマンは「AIが既存の雇用に明確な影響を与えることは隠しようのない事実だ」と認めつつも、歴史的に自動化や技術革新がそうであったように「新しく、より良い仕事が生まれると私は依然として確信している」と語った。ただし、安全と信頼を確保できなければ、AIは経済成長の原動力ではなく社会的不安要因として受け止められかねないと警告した。
コ・ウンイ記者 koko@hankyung.com

Korea Economic Daily
hankyung@bloomingbit.ioThe Korea Economic Daily Global is a digital media where latest news on Korean companies, industries, and financial markets.





