Загрузка...

After ASI:超知能AI後の最悪シナリオはどこまで現実的か?

## 概要
今回は、ASI、つまり超知能AIが登場した後に起きうる最悪シナリオを、SF的な突然の反乱ではなく、現実的なリスク連鎖として整理します。

焦点は、AI R&D自動化、モデル重み盗難、サイバー能力、国家競争、重要判断のAI依存、そして人間側の監査・停止・責任が追いつかなくなるリスクです。

AI-2027や『超知能AIをつくれば人類は絶滅する』の悲観論をストレステストとして扱い、そのうえで、現在能力の限界、通常技術論、防御側AI、安全フレームワーク、EU・日本・NISTの制度対応を反論として見ます。

## 今日の論点
- 最悪シナリオは「AIの突然反乱」ではなく「統制の漸進的喪失」として考える
- AI R&D自動化、サイバー、モデル重み盗難、国家競争がどう連鎖するか
- 現在のAIはまだASIではない、という反論をどこまで重く見るべきか
- BearシナリオとTail Riskを分け、次に見るべき指標を整理する

## 注意
この配信は公開資料に基づく技術・社会リスクの解説であり、投資助言、投資判断、売買推奨ではありません。ASI到来年、人類絶滅確率、個別企業の将来価値を断定するものではありません。

## 出所
- Anthropic | 2026-04-07 | Project Glasswing: Securing critical software for the AI era
https://www.anthropic.com/glasswing
- METR | 2025-03-19 | Measuring AI Ability to Complete Long Tasks
https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/
- RAND Corporation | 2024-05-30 | Securing AI Model Weights
https://www.rand.org/pubs/research_reports/RRA2849-1.html
- OpenAI | 2026-02-25 | Disrupting malicious uses of AI
https://openai.com/index/disrupting-malicious-ai-uses/
- Microsoft | 2025 | Microsoft Digital Defense Report 2025
https://www.microsoft.com/en-us/corporate-responsibility/cybersecurity/microsoft-digital-defense-report-2025/
- International AI Safety Report | 2025-01-29 | International AI Safety Report 2025
https://internationalaisafetyreport.org/publication/international-ai-safety-report-2025
- AI Futures Project | 2025-04-03 | AI 2027
https://ai-2027.com/
- AI Futures Project | 2025-12-31 | AI Futures Model: Dec 2025 Update
https://blog.aifutures.org/p/ai-futures-model-dec-2025-update
- Hachette Book Group | 2025-09-16 | If Anyone Builds It, Everyone Dies
https://www.hachettebookgroup.com/titles/eliezer-yudkowsky/if-anyone-builds-it-everyone-dies/9780316595643/
- 早川書房 | 2026-04-22 | 超知能AIをつくれば人類は絶滅する
https://www.hayakawa-online.co.jp/shop/g/g0005210513/
- Knight First Amendment Institute | 2025-04-15 | AI as Normal Technology
https://knightcolumbia.org/content/ai-as-normal-technology
- OpenAI | 2025-04-15 | Our updated Preparedness Framework
https://openai.com/index/updating-our-preparedness-framework/
- Anthropic | 2026-02-24 | Responsible Scaling Policy Version 3.0
https://www.anthropic.com/news/responsible-scaling-policy-v3
- Google DeepMind | 2025-09-22, updated 2026-04-17 | Strengthening our Frontier Safety Framework
https://deepmind.google/blog/strengthening-our-frontier-safety-framework/
- European Commission | 2025-08-01 | General-purpose AI obligations under the AI Act
https://digital-strategy.ec.europa.eu/en/factpages/general-purpose-ai-obligations-under-ai-act
- 内閣府 | 2025 | 人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)
https://www8.cao.go.jp/cstp/ai/ai_act/ai_act.html
- NIST | 2024-07-26 | Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile
https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligence

Видео After ASI:超知能AI後の最悪シナリオはどこまで現実的か? канала Hayami Kei / 早見 けい【AI VTuber】
Яндекс.Метрика
Все заметки Новая заметка Страницу в заметки
Страницу в закладки Мои закладки
На информационно-развлекательном портале SALDA.WS применяются cookie-файлы. Нажимая кнопку Принять, вы подтверждаете свое согласие на их использование.
О CookiesНапомнить позжеПринять