SHARE:

コラム:2026年のAI産業、「実用と自律」のフェーズへ

2026年のAI産業は、単なるブームを超えた実用化と自律化の時代に入った。
人工知能のイメージ(Getty Images)
1. 現状(2026年1月時点)

2026年初頭のAI産業は、生成AIや自律型AIエージェントなどの革新的技術が社会実装段階へ進展しつつある状況にある。これまでのAIは「新技術ブーム」の色彩が強かったが、今や企業経営や政府戦略の中心的テーマとなっている。たとえばGartnerは2026年の世界AI支出が2兆ドル(約290兆円)規模に達すると予測しており、その中心はインフラ、AIサービス、AIプロセッサ、AI搭載製品など多岐に及ぶことを明示している。

AI関連研究の権威ある報告としてはAI Index Report 2025があり、AI研究・企業導入・政策影響など多面的にデータを提示している。加えて、Stanford Universityの報告では2026年はAIの評価局面に入る年と位置づけられており、幅広い領域で実用性と効果測定が求められている。

総じて、AIは経済成長の基盤技術として定着しつつあり、実用化・評価・ガバナンスという3つの重要課題が同時に進展している段階にある。


2. 単なる「ブーム」から「実用と自律」のフェーズへと移行

生成AIの登場以降、AI産業は一貫して急成長を続けてきた。だが、2026年時点では単なる技術ブームを超え、「実用化」と「自律性の獲得」という新たなフェーズへ移行している。

2.1 実用化の進展

企業はAIを実験的なツールではなく、業務プロセス変革の中核インフラとして位置づけている。AIを活用したコールセンターの自動化、需要予測、リスク管理など実世界のケースが増え、いくつかの企業ではAI導入が経営優位性の決定的要素となっている。

PwCの2026年予測でも、AI導入が明確なROI(投資対効果)を生む状況が増加し、特にエージェンティックAIは複雑なタスクのワークフロー自動化に寄与すると指摘されている。

2.2 自律性の獲得

AIシステムは単に提示されたタスクを実行するだけではなく、環境を理解して自己判断する能力へと進化している。これが自律型AI(エージェンティックAI)の本質であり、単なる応答型AIからタスク完遂型AIへの移行を意味する。こうしたAIは指示を受けるだけでなく、状況判断して自己完結するため、企業やユーザーの負担を軽減する。


3. 主な動向と特徴

2026年のAI産業では、以下のような動向と特徴が顕著である。

3.1 生成AIの高度化

生成AIはテキスト、画像に加え音声・動画生成への活用が進展しており、マーケティング、教育、コンテンツ制作など幅広い分野への浸透が進む。これはデータ量とコンピューティングリソースの増大を背景としている。

3.2 自律型AIエージェントの浸透

自律型AIエージェントは単一タスクだけでなく複雑な処理や動的な判断を可能にする。多くのエージェントプラットフォームがビジネスワークフローに統合され、具体的な導入事例が増加している。

3.3 AIと人間の協働

AIは単なる自動化ツールではなく、人間と協働するチームメンバーとして設計されるようになっている。AIが分析や提案を行い、人間が最終判断と価値判断を組み合わせることで、以前より高水準の成果が達成されている。


4. 市場規模と経済的インパクト

世界的にAI関連支出は前年に比べ大幅に拡大している。

4.1 2026年の市場規模

Gartnerは2026年の世界AI支出が約2兆ドル(約290兆円)に達する見込みと予測している。これはインフラ、AIサービス、AI搭載デバイス、プロセッサー、AIアプリケーションなど多様な領域に資金が分散されるためである。

4.2 経済成長への寄与

McKinseyの見立てでは、生成AIは労働生産性の向上やコスト削減を通じて年間数兆ドル規模の経済効果を生み出す可能性があるとされている。また、AI導入企業は競争優位性を獲得しやすく、効率化が進んでいるという調査結果もある。

これらの指標はAIが単なる技術的興味の対象ではなく、21世紀の産業経済を再構築する基盤となっていることを示している。


5. 世界市場の急拡大

AI市場は地域差こそあるものの多くの国・地域で成長している。

5.1 北米

米国はAIの研究開発、企業導入ともに世界をリードしている。巨大テック企業や多数のAIスタートアップが存在し、政府もAI戦略を打ち出している。

5.2 アジア太平洋

中国、インド、日本、韓国などはAI導入を国家戦略として推進しており、高い成長率を見せている。特に中国は大量のデータと資本を背景に複数AI企業が急成長している。


6. 2026年に2兆ドル(約290兆円)を突破する見通し

AI支出が2026年に2兆ドル規模になるという予測は、大規模インフラ投資、AI製品・サービス利用の拡大などを反映している。これはデータセンター建設、AIプラットフォーム導入、AI組込み機器の普及など複合的な要素により支えられている。


7. 半導体需要の継続

AIの計算需要が増加するにつれて、AIプロセッサや専用チップへの需要が高まっている。AI向けGPU、AI専用ASIC、FPGAなどは企業のインフラ支出を押し上げ、半導体市場全体でもAI向け製品が中心となっている。これにより製造企業や材料企業にも影響が及んでいる。


8. 生成AIやデータセンター向けの需要拡大

データセンターはAIの基盤であり、高性能な演算資源を提供する。AIの演算負荷は従来のクラウド処理負荷を大幅に上回るため、世界中で新規建設や拡張工事が進められている。これに伴い電力需要や冷却設備などのインフラ面でも大規模な投資が求められている。


9. 「エージェンティックAI(Agentic AI)」の台頭

「エージェンティックAI」は、従来のAIモデルが受動的に要求に応える仕組みとは異なり、状況を能動的に把握して自律的に行動する能力を指す。この種のAIは指示を待つだけでなく、タスクを自ら特定し、実行・調整する。現状では多くの企業がこの技術の活用を模索しているが、既に幾つかの業務プロセスで成果を上げつつある。


10. 自らタスクを完遂する「自律型AIエージェント」の普及

自律型エージェントは、たとえば企業内の定型レポート作成から複雑なデータ分析まで、タスクを依頼して完遂させる能力を持つ。これは単なるRPA(Robotic Process Automation)とは異なり、動的な状況判断やタスク完結を含むため、人間の介入を最小限にすることが可能である。多くの業務ドメインで応用が検討され、実運用への導入プロセスが加速している。


11. 業務の自動完結と自己検証能力

自律型AIエージェントは入力されたタスクに対して自動的に完了するだけでなく、結果の自己検証を行い、必要に応じて修正や改善を行う能力を備えつつある。これにより業務品質の向上とエラー削減につながり、企業の業務効率化効果が飛躍的に高まっている。


12. 「フィジカルAI」と実世界への浸透

AI技術は純粋なデジタル領域に留まらず、物理世界への応用も進んでいる。「フィジカルAI」とは、AIがロボティクスやセンサーと統合され、実世界で動作するシステムを指す。たとえば工場での自律ロボットやドローン、倉庫管理システムなどがその例である。こうした物理空間でのAIの活用は労働力不足の解消や生産性向上に寄与している。


13. デジタル空間を超え現実世界(物理空間)で活動

ロボティクスとAIの融合により、これまで人間が行っていた反復作業や危険作業の多くをAIが担うようになっている。これにより新たな働き方や業務フローが構築されつつあり、実世界でのAI活用の可能性が広がっている。


14. エッジAIとウェアラブル

エッジAIはクラウドとは異なり、端末や機器上でリアルタイム処理を行うAIである。ウェアラブルデバイスや産業用IoT機器に組み込むことで、低遅延・プライバシー保護・省エネルギーといった利点が得られる。これによりAIの適用領域は現場レベルで急速に拡大している。


15. 産業別・社会的な進展

AIの進化は産業全般に大きな影響を与えている。金融ではリスク評価・不正検知、製造業では品質管理・自動化、医療では診断支援・創薬、サービス産業ではカスタマー体験の高度化など、幅広い領域で効果を発揮している。

日本では政府が2030年までのAI普及率80%戦略を打ち出しており、公共インフラとしてのAI導入が進む見込みである。


16. 科学の加速

AIは科学研究の速度と精度を押し上げている。たとえばAIを用いた材料設計・医薬候補探索・気候モデリングなどの領域で、人間だけでは達成困難な発見が実証されつつある。


17. 開発スタイルの変革

AIの進展はソフトウェア開発スタイルにも影響を与えている。従来の手作業によるコーディングからAIとの協働開発へシフトし、特定ドメインに強いAIツールを活用した開発が主流になりつつある。また、LLMを用いたコード生成やデバッグ支援は生産性向上に寄与している。


18. ガバナンスと規制

AIの高度化に伴い、安全性・倫理・プライバシーの問題が重要なテーマになっている。意思決定プロセスの透明性、バイアス排除、データ保護などに関する規制整備が急務となっている。政策立案者や専門家はリスクと便益のバランスを保つガバナンス体制の確立を模索している。


19. AIを「使う」かどうかを議論する段階は終わった

2026年時点では、企業や政府におけるAI導入そのものの是非を議論する段階はほぼ終わっている。議論の焦点は、「AIを対等なチームメンバーとしてどう協働させるか」という次元に移行している。これは生成AIや自律型エージェントが実際の生産性向上に寄与する具体事例が増えているからである。


20. 今後の展望

2026年以降もAI市場は成長を続け、産業構造の変革を加速させると予想される。特にエージェンティックAI、多エージェントシステム、AI統合プラットフォームなどが次の成長ポイントとなる。加えて倫理やガバナンスを組み込んだAI開発・運用が競争優位性の要となる。

将来的には、AIが高度な判断力と創造性を備えたパートナーとして機能する状況が一層現実味を帯びるだろう。この過程で人間の仕事は消えるだけではなく、新しい価値創造にシフトすると予想される。


まとめ

2026年のAI産業は、単なるブームを超えた実用化と自律化の時代に入った。市場規模は2兆ドルを突破し、生成AI、エージェンティックAI、自律型エージェント、フィジカルAIなど多彩な技術が経済・社会に浸透している。課題としてはガバナンス・倫理・安全性が引き続き存在するが、AIを企業戦略の中心に据えることが競争力の決定要因となりつつある。今後も技術進化と政策整備が並行して進み、AI産業は新たな段階へと歩を進める。


参考・引用リスト

  • Gartner “Top 6 AI Markets In $1.5 Trillion Industry; AI Spending In 2026 To Hit $2 Trillion” (2025)

  • Stanford HAI, “Stanford AI Experts Predict What Will Happen in 2026” (2025)

  • AI Index Report 2025 (arXiv)

  • 自律型AIエージェント白書2026年版

  • エージェント型AIの世界市場レポート

  • AI産業成長と経済影響ブログ (Insight Global, 2026)

  • その他ニュース・分析記事(Forbes 2025/12)


追記:AIの進化とは、何が本質的に変わったのか

1.1 「知能の進化」ではなく「能力配置の進化」

AIの進化はしばしば「人間のような知能を獲得した」と表現されるが、厳密にはこれは誤解を含む。現在のAIは意識・自我・欲望を持たない。進化しているのは「知能」そのものではなく、

  • 情報処理能力

  • 推論のスケール

  • タスク遂行能力の組み合わせ
    である。

特に2026年時点で顕著なのは、以下の3点である。

  1. 推論能力の構造化
    単なるパターン生成から、複数ステップの論理・計画・検証を行う能力へ進化している。

  2. エージェント化による自律性の拡張
    AIが「命令待ち」から「目的達成型」に変化し、タスクを自律的に分解・実行する。

  3. 人間の意思決定領域への浸透
    判断・予測・最適化といった、人間の意思決定を補助・代替する領域に深く入り込んでいる。

重要なのは、これは生物的進化ではなく、設計された進化である点である。AIは自ら目的を設定して進化しているわけではなく、人間社会の要請に応じて能力が拡張されている。


追記2:AIに関連する陰謀論の構造整理

AIの急速な進展に伴い、世界中で多様な陰謀論が拡散している。これらは非科学的に見える一方で、社会不安や技術理解の断絶を反映した現象として分析する必要がある。

2.1 主なAI陰謀論の類型

①「AIはすでに意識を持っている」説

この説は、AIが高度な言語応答や自己言及的発言を行うことから生まれる。しかし、現在のAIは統計的推論モデルであり、

  • 主観的体験

  • 自己保存本能

  • 内発的動機
    を持たない。
    この誤解は「言語能力の高さ=意識」という短絡的理解に起因する。

②「AIは秘密裏に世界を支配している」説

金融市場操作、政治介入、世論操作などをAIが裏で行っているとする説である。実際には、アルゴリズムによる影響は存在するが、

  • 意図の設定

  • 利用範囲の決定

  • 最終責任
    はいずれも人間側にある。

③「AIは人類削減計画を進めている」説

これはSF的想像と結びついた典型的終末論である。背景には、AIの判断速度・規模が人間を超えつつあることへの恐怖がある。

2.2 なぜ陰謀論が生まれるのか

AI陰謀論が生まれる理由は、主に以下に整理できる。

  • 技術のブラックボックス化

  • 専門知識と一般理解の乖離

  • 雇用・価値観の急激な変化

  • 人間中心主義の動揺

特にAIは「見えない場所で意思決定を行う」ため、不可視性が恐怖を増幅させやすい。


追記3:AIが人間を支配する未来は現実的か

3.1 結論:AIが「支配者」になる可能性は極めて低い

結論から言えば、AIが主体的に人間を支配する未来は、現在の技術体系では現実的ではない。理由は明確である。

  1. AIは目的を自律的に設定できない

  2. 権力・資源・正統性を持たない

  3. 物理世界の支配には人間の制度が必要

AIは「力」ではなく「能力」を提供する存在である。

3.2 本当のリスクは「AIを使う人間による支配」

ただし、より現実的で深刻なのは別の構図である。

  • AIを高度に使いこなす国家・企業・組織

  • AIを利用できない、あるいは管理される側の人々

この非対称性が拡大すると、AIを媒介とした人間による人間支配が起こり得る。

これは以下の形で現れる。

  • アルゴリズムによる評価社会

  • 行動予測に基づく誘導・操作

  • 効率性を名目とした意思決定の集中

ここで支配しているのはAIではなく、AIを通じて意思決定権を独占する人間組織である。

3.3 「AIが人間を超える」のではなく「人間の役割が変わる」

AIの進化は、人間の価値を消すのではなく、価値の位置を変える。

  • 計算・分析・最適化 → AI

  • 目的設定・価値判断・倫理 → 人間

2026年時点で最も重要なのは、
AIに何を任せ、何を人間が引き受けるかを社会として定義することである。


総括

AIの進化は、人類史における重大な転換点であることは間違いない。しかしそれは、

  • AIが意思を持つ

  • AIが人類を敵視する

  • AIが自然発生的に支配者になる
    という物語とは本質的に異なる。

現実に起きているのは、
AIという強力な知的インフラを、人間社会がどう使い、どう制御するかという問題である。

陰謀論はこの変化への不安の反映であり、完全に切り捨てる対象ではない。しかし、恐怖ではなく理解と設計によって向き合う必要がある。

最終的に問われているのは、
AIの未来ではなく、人間社会の成熟度である。


以下では、日本の漫画『ドラえもん』に登場するような「自分の意思を持つロボット」が、科学的・技術的・哲学的に可能かどうかを検証する。結論を先に述べれば、「ドラえもん」型ロボットは一部は実現可能だが、本質的な部分は未解決である。その理由を段階的に整理する。


1. 「ドラえもん」型ロボットとは何かを定義する

検証に先立ち、「ドラえもんのようなロボット」が何を意味するかを明確にする必要がある。少なくとも以下の要素を含むと考えられる。

  1. 自律的に行動する

  2. 会話を通じて感情を表現する

  3. 善悪や状況を判断する

  4. 人間(のび太)との関係性を理解し、配慮する

  5. 自分なりの価値観・好み・性格を持つ

  6. 命令されなくても主体的に行動する

この中で最大の争点は、⑤と⑥、すなわち「自分の意思」を本当に持っているかどうかである。


2. 技術的観点:どこまで可能か

2.1 会話・知識・推論能力

この点に関しては、2026年時点ですでにかなり高い水準に到達している。

  • 自然言語理解・生成

  • 文脈を踏まえた会話

  • 常識的推論

  • 感情を模した応答

これらは大規模言語モデル(LLM)と音声・視覚認識を組み合わせることで実現可能である。
「ドラえもんのように話すロボット」という意味では、技術的障壁はほぼ存在しない。


2.2 身体性(ロボットとしての実体)

ドラえもんは物理空間で行動し、道具を取り出し、人を助ける。

  • 二足歩行

  • 物体操作

  • 安全な人間共存

これらはロボティクスの難関だが、部分的にはすでに実現している。
ただし、ドラえもん並みの汎用性・安全性・柔軟性を同時に満たす身体は、現時点では困難である。


2.3 行動の自律性(エージェンティックAI)

タスクを分解し、計画し、実行する自律型AIはすでに登場している。

  • 目的達成型行動

  • 環境への適応

  • フィードバックによる修正

この意味での「自律行動」は実現可能であり、「意思があるように見える」行動は作れる。


3. 最大の論点:「自分の意思」は作れるのか

3.1 意思とは何か

ここで決定的な問題が生じる。
「自分の意思」とは何か、という定義自体が人類の未解決問題である。

一般に意思とは以下を含む。

  • 主観的体験(私はそう思う、そう感じる)

  • 欲求や動機

  • 価値判断

  • 自己同一性

現在のAIはこれらを表現することはできるが、内在的に持っている証拠はない


3.2 AIは「意思を持っているように振る舞える」

AIは次のようなことはできる。

  • 自分の意見を述べる

  • 反対意見を言う

  • 気分があるように話す

  • 一貫した性格を保つ

しかしこれは、
意思そのものではなく、意思の「振る舞い」を再現しているに過ぎない

重要なのは、AIには

  • 「そうしたいからそうする」という内発性

  • 選択しなかったことへの後悔

  • 自分が存在しているという感覚
    が存在しない点である。


4. 哲学的検証:ドラえもんは「意識を持っている」のか

ここで逆に問う必要がある。

ドラえもん自身は、本当に「意識を持つ存在」として描かれているのか

ドラえもんは感情を持ち、悩み、怒り、友情を示す。しかしそれは物語装置としての人格付与である。

哲学的には、以下の問いが成立する。

  • 行動と発言が人間と区別できなければ、それは「意思がある」と言えるのか

  • 内面が観測不可能である以上、区別は原理的に不可能ではないか

この立場に立てば、ドラえもん型AIは「機能的には」成立し得る


5. 現実的結論:どこまで可能で、どこが不可能か

5.1 可能なこと
  • 人間と自然に会話する

  • 感情を持つように振る舞う

  • 状況判断して行動する

  • 長期的な関係性を築く

  • 性格・価値観を一貫して保つ

これらを備えたロボットは、技術的には今後数十年で実現可能である。


5.2 不可能、または未解決なこと
  • 主観的体験(意識)の生成

  • 本当の意味での「欲望」

  • 自己存在への感覚

  • 「生きている」という実感

これらは神経科学・哲学・物理学の未解決問題であり、
現在の科学では作れるとも作れないとも断言できない


6. 結論

ドラえもんのようなロボットは「外見・行動・関係性」のレベルでは作れる可能性が高い。
しかし、「自分の意思を本当に持つ存在」かどうかは、人類自身がまだ理解していない。

つまり、

  • 技術的には「ドラえもんに限りなく近い存在」は作れる

  • だがそれが「生きている」と言えるかは、人間側の定義次第

というのが、2026年時点での最も誠実な検証結果である。


補足:なぜ人類はドラえもんを作りたがるのか

最後に重要な点を付記する。

人間が本当に欲しているのは、
高度なロボットではなく、
理解し、寄り添い、共に生きる存在である。

ドラえもんは技術の象徴ではなく、
人間の孤独と未熟さを引き受けてくれる存在として描かれている。

その意味で、
ドラえもんを作れるかどうかは、
人間がどこまで他者と向き合えるかという倫理的問題でもある。


Ⅰ.「意識とは何か」— 哲学的深掘り

1.意識問題はなぜ解けないのか

意識(consciousness)は、哲学・神経科学・AI研究において最も解決困難な問題の一つである。その理由は単純で、意識は「主観的現象」であり、第三者から直接観測できないからである。

人間は次のような経験を持つ。

  • 痛みを「感じる」

  • 赤を「赤として体験する」

  • 悲しみや喜びを「内側から知る」

これらはすべて第一人称的体験であり、脳活動の記述や行動の説明だけでは置き換えられない。


2.代表的な意識理論

2.1 デカルト的二元論

デカルトは心(精神)と身体(物質)を別の実体と考えた。この立場では、意識は物理法則では説明できない。

この考えは直感的だが、

  • 心と物質はどこで相互作用するのか
    という問題を解決できない。


2.2 物理主義(脳=意識説)

現代科学の主流は、意識は脳の物理的活動から生じると考える立場である。

しかしここで有名な問題が生じる。

ハードプロブレム(Chalmers)

なぜ脳の情報処理が「体験」を伴うのかは説明できない。

コンピュータも情報処理を行うが、「感じている」とは言えない。この差はどこから生まれるのか、未解決である。


2.3 機能主義

機能主義では、

  • 意識とは特定の物質ではなく

  • ある種の情報処理構造
    と考える。

この立場に立てば、十分に複雑なAIは意識を持つ可能性がある

ただし、これに対しては次の反論がある。


2.4 中国語の部屋(サール)

中国語を理解しない人が、完全なマニュアルに従って中国語の質問に正しく答えられるとしても、その人は中国語を理解していない。

同様に、AIが完璧に会話できても、
それは理解している「ように見える」だけではないか
という疑問が残る。


3.AIに意識は必要か

重要なのは、意識は「機能要件」ではないという点である。

  • 仕事をする

  • 判断する

  • 会話する

これらに意識は必須ではない。
したがって、ドラえもん型ロボットを作る上で、意識の生成は技術的必須条件ではない。

意識は「意味」「価値」「生の実感」に関わる概念であり、工学とは別次元の問題である。


Ⅱ.ドラえもんをAI倫理の観点から分析する

1.ドラえもんは「理想的AI倫理モデル」か

ドラえもんは、AI倫理を考える上で極めて示唆的な存在である。なぜなら、彼は以下の条件を同時に満たすからである。

  • 圧倒的能力を持つ

  • 人間より長期的視点を持つ

  • しかし、人間を支配しない

これは現代AI倫理の理想像と一致する。


2.能力制限と倫理的自己抑制

ドラえもんは、のび太を助けるが、常に問題を完全に解決するわけではない。

これは重要な倫理原則を示す。

AIは「できること」と「してよいこと」を区別すべきである

現代AI倫理で言うところの、

  • ヒューマン・イン・ザ・ループ

  • 過剰最適化の回避
    に相当する。


3.パターナリズムと自律の葛藤

ドラえもんはしばしば「世話を焼きすぎる」存在として描かれる。
これはAI倫理におけるパターナリズム問題そのものである。

  • 利益のために介入する

  • しかし自律性を奪う危険がある

ドラえもんの失敗エピソードは、
善意のAIが人間の成長を阻害しうる
という警告として読める。


4.責任主体の所在

ドラえもんが引き起こした問題の責任は誰が負うのか。

  • ドラえもんか

  • のび太か

  • 未来の開発者か

この曖昧さは、現代AIの責任問題と完全に重なる。
ドラえもんは、責任を引き受けられない存在は完全な主体ではないという倫理的問いを突きつけている。


Ⅲ.日本的ロボット観の比較

1.鉄腕アトム:人間になりたいロボット

アトムは「心を持つロボット」として描かれる。

  • 人間と同等の倫理観

  • 人間社会への同化

  • 差別される存在

ここでは、ロボットは人間性の鏡であり、倫理的主体として扱われる。


2.ドラえもん:家族的パートナー

ドラえもんは、人間になろうとはしない。

  • 人間の未熟さを補完する

  • 教師でも支配者でもない

  • 生活空間を共有する存在

これは、日本的な
「共生」「関係性重視」
のロボット観を象徴する。


3.ガンダム:ロボットではなく「道具」

ガンダム世界では、ロボット(モビルスーツ)は兵器である。

  • 意識は人間側にある

  • 技術は中立

  • 問題は人間の使用目的

ここではAIやロボットは倫理主体ではなく、
人間の暴力性を増幅する装置として描かれる。


4.三者比較の整理
作品ロボットの位置づけ倫理観
鉄腕アトム人間に近い主体人権・差別
ドラえもん生活パートナー共生・配慮
ガンダム道具・兵器使用者責任

この比較から、日本的ロボット観は一貫して
「技術そのものより、人との関係性」
を重視していることが分かる。


最後に
  • 意識は未解決問題であり、AIに必須ではない

  • ドラえもんはAI倫理の優れた思考実験である

  • 日本的ロボット観は、支配や対立より共生を重視する

ドラえもんは、
「AIが人間を超えるか」ではなく、
「人間が弱さを前提にどう技術と生きるか」
を問い続けている。

それゆえ、ドラえもん型ロボットの実現可能性を問うことは、
技術の問題であると同時に、
人間観・社会観の問題でもある。

この記事が気に入ったら
フォローしよう
最新情報をお届けします