OpenAIが政府に出した20案
OpenAIが2026年4月6日に「Industrial Policy for the Intelligence Age」と題した13ページの政策文書を公開しました。副題は「Ideas to Keep People First(人を中心に置き続けるためのアイデア)」。技術の話ではなく、AI時代に社会はどう変わるべきかを、AI企業自身が20項目にわたって提言した内容です。
文書は2本柱で構成されており、全20項目を順に読み解いていきますが、整理すると大きく3つのテーマに集約されます。
①恩恵を広く分配する:週4日勤務・公共富裕基金・ポータブル福利厚生など、AI経済の果実を一部の企業・投資家だけに集中させない仕組みづくり
②機会を広く開く:AIアクセス権・AI起業家育成・税制近代化など、誰もがAI時代に参加できる環境の整備
③リスクを社会全体で管理する:監査体制・インシデント報告・国際ネットワークなど、一企業任せにしない安全の仕組みづくり
【出典元】Industrial Policy for the Intelligence Age | OpenAI
1. 2本柱で示す社会の再設計
文書は以下の2部構成で、合計20の提言はすべて「初期アイデア」として提示されています。フィードバックはメールで受け付けており、提言をもとにした研究には最大10万ドルの助成と最大100万ドル相当のAPIクレジットも提供するとしています。
| 第1部:オープン経済の構築(11項目) | 第2部:レジリエント社会の構築(9項目) |
|---|---|
| 雇用・働き方・お金・インフラに関する提言 | 安全・ガバナンス・リスク管理に関する提言 |
| ① 労働者の声 ② AI起業家育成 ③ AIへのアクセス権 ④ 税制近代化 ⑤ 公共富裕基金 ⑥ 電力網拡張 ⑦ 効率性配当 ⑧ 適応的セーフティネット ⑨ ポータブル福利厚生 ⑩ 人間中心職への道 ⑪ 科学発見加速 | ⑫ 新興リスク対応システム ⑬ AI信頼スタック ⑭ フロンティアAI監査体制 ⑮ モデル封じ込めプレイブック ⑯ ミッション志向の企業統治 ⑰ 政府AI使用の安全弁 ⑱ 公共参加メカニズム ⑲ インシデント報告制度 ⑳ 国際AI調整ネットワーク |
2. 働く人を守る5つの対策
第1部のうち、雇用・労働に直結する5項目です。
① 労働者の声
企業がAIを職場に導入する際、品質・安全性・公正性について労働者が正式に意見を言える仕組みを整備する。AI導入の判断が経営側だけで進まないよう制度的な歯止めをかける考え方です。
⑦ 効率性配当
AIで生産性が上がった分を企業の利益だけに変えるのではなく、労働時間の短縮や賃上げとして労働者に還元する。週32時間勤務(週4日制)の試験導入はこの考え方に基づいています。
⑧ 適応的セーフティネット
失業保険・食糧支援など既存の社会保障プログラムを強化し、AIによる急激な雇用変化が起きたときに自動的に支援が発動される仕組みを整える。
⑨ ポータブル福利厚生
医療保険・年金・職業訓練を職場に縛り付けるのではなく、個人に紐づいた形で職を超えて持ち運べるようにする。フリーランスや転職が多い働き方にも対応できます。
⑩ 人間中心職への道
ケアワーカー・教育者・地域サービスといった「人間ならではの仕事」を経済的に価値ある雇用として直接支援する。AIに代替されにくい職種を社会的に評価・報酬化していく方向性です。
3. お金と機会を広げる6つの案
経済的な機会そのものを広げるための6項目です。
② AI起業家育成
労働者がAIを活用して新しいビジネスを始めやすくするために、共有ツール・資金調達・インフラを提供する仕組みを整備する。
③ AIへのアクセス権
AIを電気・水道と同じ基本インフラとして位置づけ、誰もが手頃な価格で使えること、かつ使いこなすための訓練も受けられることを保障する。
④ 税制近代化
現在の労働所得への課税から、法人税・キャピタルゲイン税・AI活用に連動した課税へとシフトする。AIで雇用が減れば税収が落ち込む懸念があり、その穴を資本側の課税で補う考え方です。
⑤ 公共富裕基金
国が長期分散投資を行い、運用益を国民に直接還元する仕組みを創設する。アラスカ州の石油収益分配制度がモデルで、AI経済の成長に市民全員が参加できる権利を保障するものです。
⑥ 電力網拡張加速
AI向けデータセンターが急増する中、電力インフラの整備が追いつかないリスクへの対処として、官民連携モデルによる電力網の拡充を求める。
⑪ 科学発見加速
AIを活用した分散型研究ラボを各地に構築し、医療・材料・エネルギーなど幅広い分野での発見を社会実装につなげるシステムを整える。
4. 安全とガバナンスの9項目
第2部は、AIのリスクや誤用を防ぐための制度設計です。9項目を表にまとめました。
◆AIのリスクや誤用を防ぐための制度設計
| 提言 | 内容 |
|---|---|
| ⑫ 新興リスク対応システム | サイバー攻撃・生物兵器開発など、AIが悪用される高リスク領域で検知・防止ツールを開発する |
| ⑬ AI信頼スタック | AIの出力・動作・説明責任を第三者が検証できるシステムを構築し、プライバシー保護と透明性を両立させる |
| ⑭ フロンティアAI監査体制 | 最先端モデルに対して独立した監査官による事前・事後の評価を義務づける |
| ⑮ モデル封じ込めプレイブック | 危険または制御不能なAIが出現した際の対処手順をあらかじめ策定しておく |
| ⑯ ミッション志向の企業統治 | フロンティアAI企業が公共利益への説明責任を構造的に組み込んだガバナンス体制を採用する |
| ⑰ 政府AI使用の安全弁 | 政府機関がAIを展開する際に明確な法的・技術的制限を設け、行政への過度なAI依存を防ぐ |
| ⑱ 公共参加メカニズム | AI設計や規制のあり方に市民が構造的に参画できるプロセスを整備する |
| ⑲ インシデント報告制度 | 企業がAIの障害・悪用・ニアミスを当局と共有する義務的なシステムを確立する |
| ⑳ 国際AI調整ネットワーク | リスク情報の共有・評価の調整・危機対応を行うグローバルな研究機関ネットワークを構築する |
5. AI企業が政策を語る意義
この文書で注目されるのは内容の是非だけでなく、AI企業自身が社会設計を提言するという行為そのものです。これまで「AIの影響」を語るのは政府・学者・労働組合の役割でした。しかしOpenAIは自らその議論に参加し、20項目という具体的な形で提案を出しています。
賛否両論があります。米国のメディア「Tech Policy Press」はこの文書を「政策に見せかけた営業資料(policymercial)」と表現し、OpenAIが自社に有利な規制の枠組みを先手で作ろうとしている可能性を指摘しています。一方で、AI企業が社会的責任を自発的に語り始めたこと自体を評価する声もあります。
どちらの視点で読むにしても、AIが社会に与える影響がいよいよ無視できない規模になったことをこの文書は示しています。
まとめ
「初期アイデア」とはいえ、これらは近い将来に各国の政策議論に上がる可能性があります。OpenAIの提言を出発点として、政府・企業・市民がどのような議論を重ねるかが、AI時代の社会の形を決めていくといえます。