労働の完全自動化(人の楽園? or 失業地獄?)2 (767レス)
上下前次1-新
抽出解除 必死チェッカー(本家) (べ) 自ID レス栞 あぼーん
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
759: 09/28(日)10:08 ID:6tFNPRmt(1/9) AAS
米中先行の人型ロボ開発、家庭・工場・被災地の現場を1体で担う「汎用型」目標に…競争加速で見直し
9/28(日) 5:00配信
内閣府は、社会を変えるような挑戦的な研究を支援する「ムーンショット型研究開発制度」で、家庭や工場、被災地など様々な現場で活躍できる汎用(はんよう)の人型ロボットの開発を
新たな目標に定める方針を固めた。2030年までに試作機を作り、基盤技術の獲得を目指す。米中をはじめ海外で人型ロボットの開発競争が加速する中、日本の研究開発を促進したい考えだ。
20年に始まった同制度は、国が挑戦的な目標を定めて研究を公募し、総額約4000億円の基金から最長10年間支援する。現在「台風や豪雨を制御」「100歳まで健康不安なく人生を楽しむ」
など10の目標があり、今回はこのうちの「人と共生するロボットを実現」の内容を見直す。人工知能(AI)の発展で、汎用の人型ロボットが現実味を帯びてきたことが背景にある。
これまでは人型に限定せず、介護や家事、災害対応などに使われるロボットの開発を個別に進めていた。
新たな目標として、これらの作業を1体で担える人型ロボットの開発を目指す。30年までに、人間の支援の下で一定数の作業に対応できる試作機を製造する。民間投資の呼び水とするほか、AIの研究を後押しする狙いもある。
50年までに、学習しながら自律的に判断し、人間と同等以上の身体能力を備えたロボットを目指す。今年度中に新たな研究代表者などを公募する予定だ。
省4
760: 09/28(日)10:17 ID:6tFNPRmt(2/9) AAS
GMO熊谷氏「ヒューマノイドは自動車産業を超える」家庭にも普及する? 熊谷氏がCEOのAIヒューマノイドと共同記者会見
2025年9月26日
GMOインターネットグループは2025年9月25日(木)に「GMO AI・ロボティクス大会議&表彰式2025」を開催した。イベント終了後には、同グループ代表の熊谷正寿氏による
プレスカンファレンス(記者会見)が行われ、ヒューマノイドに対する思いや、今後ヒューマノイドが社会にどのように浸透していくかについて語られた。
プレスカンファレンスには、AI・CEO「ヒューマノイド 熊谷正寿」も同席した。
AI・CEO「ヒューマノイド 熊谷正寿」は、日本で初めてAI・CEOをヒューマノイドロボットとして具現化したもの。ボディは「Unitree G1」で、顔にはディスプレイを搭載、熊谷正寿CEOの顔や表情を写している。
チャットボットを通じて対話を行うことで、事業における意思決定のさらなる高速化が可能とされる。これまでに3,500セッション以上、6,800回を超える対話を実施してきたという。
GMOインターネットグループは、意思決定のさらなる高速化が必要だと考え、2024年7月から「GMO Brain AIプロジェクト」を推進。その第1弾として、同年12月に社内向け独自AIツール
「AI 熊谷正寿」をパートナー(従業員)向けに提供開始した。「AI 熊谷正寿」は、熊谷氏の思考やフィロソフィー、そしてGMOインターネットグループのカルチャーを集約・言語化した
「GMOイズム」を学習した“バーチャル知的ナビゲーター”として位置付けられている。
今回のヒューマノイドは、そのプロジェクトをさらに一歩進めた形となる。
「GMO Brain AIプロジェクト」での「ヒューマノイド 熊谷正寿」の意義について問われた熊谷氏は、次のように語った。
定性的ですが、回答精度という点では、彼(ロボット)は今はまだ80%くらいです。しかし、私のことを毎日学習しています。人は1日8時間労働ですが、ロボットは24時間365日働くことができます。
私は1つの会議にしか出席できませんが、彼は10台のコピーを作れば10の会議に同時に出席できます。私が100の精度で答えられても、彼が80の精度でも10の会議に出席できるなら、
会社全体で見れば彼の方が生産性は高いとも言えます。
761: 09/28(日)10:18 ID:6tFNPRmt(3/9) AAS
これが、私の考え方を移植したAIを物理的に搭載したAIヒューマノイドの可能性であり、社会的に意義のあることだと感じています。
今はまだ実験段階ですが、多くのアンケートやデータを取得し、定量的・定性的に彼の存在意義をレポート化して発信していきたい。AIロボティクスの社会実装に
役立てたいという思いで、このプロジェクトをスタートしました。」
ヒューマノイド事業のポテンシャルについて問われた熊谷氏は、次のように語った。
ヒューマノイド市場は、自動車産業を超える規模に近々成長する可能性が十分にあると考えています。テスラのイーロン・マスク氏は、2025年に自社工場でオプティマスを数千台導入し、
その後本格的な大量生産と外販を開始し、2027年までに年間50万台の生産を目指しているという報道もあります。中国政府もヒューマノイド開発支援に全力で取り組んでいます。
私自身も、ヒューマノイドが今後の産業革命の中心になると考えています。日本におけるヒューマノイド事業では、GMO AIR(GMO AI&ロボティクス商事)を中心的な企業に育てたい。
現在はまだ啓蒙活動の段階と捉えていますが、成長するヒューマノイド産業のトップランナーにしたいと思っています。
762: 09/28(日)10:19 ID:6tFNPRmt(4/9) AAS
ヒューマノイドは産業利用と家庭利用のどちらが先に普及するかという問いに対し、熊谷氏は次のように述べた。
産業利用は作業がパターン化されているため、家庭利用に比べると簡単です。すでに工場で産業用ロボットが普及しているのは、作業がパターン化されているからです。
一方、家庭利用では代わりにやってほしい作業が家庭ごとに異なり、バラエティに富んでいてパターン化が難しい。例えば洗濯を例にとると、洗濯機の役割はシンプルですが、
洗濯物を畳む方法やアイロンのかけ方は人によって好みが違います。家庭用ロボットに求められるスキルの実現は難しいですが、実現は時間の問題です。人が思っているより早く、数年でできるようになるでしょう。
そう考えると、産業用やビジネス用途ではすぐにできることが増え、急速に普及していくと思います。
ただし、普及には価格も重要です。家庭に普及するためには、軽自動車程度の価格帯になる必要がありますが、それも2〜3年先には実現するのではないでしょうか。
今はまだ想像できないかもしれませんが、2〜3年後には家庭にヒューマノイドがいる、そんな時代が来る可能性があると考えています。
763: 09/28(日)10:20 ID:6tFNPRmt(5/9) AAS
人の動作をリアルタイム転写するヒューマノイドロボットをEmplifAIが実装「人の即興性×ロボットの到達性」共同実証パートナー募集
2025年9月26日
株式会社EmplifAIは、操作者の身体動作や意図をリアルタイムにヒューマノイドロボットへ転写する遠隔・身体共有型テレプレゼンスの実装に成功したと発表した。
同技術は、ステージ演出・ライブ配信などの「人が乗り移った」ような体験や、高所・狭隘・被ばくリスク等を伴う現場での代替支援に発展し得ることを示している。あわせて、
PoC(概念実証)・実証実験の共同パートナー企業の募集を開始する。
自立させながらの身体制御は、既存の自律制御だけでは再現が難しく、現場適用のボトルネックだった。EmplifAIは、操作者視点の知覚と動作意図をロボットへ低遅延で写し取る
アプローチにより、「人の即興性×ロボットの到達性」を両立。初期検証では、腕・上体・歩行の協調などの基本動作で追従を確認している。
同技術の主な特徴は、低遅延・高追従性を実現し、操作者の上半身・手先の運動をロボットへリアルタイム反映することだ。汎用ロボット対応として、ヒューマノイド(例:Unitree G1等)を中心に、用途に応じて拡張可能となっている。
応用分野として、以下のケースが想定されている。
省6
764: 09/28(日)10:23 ID:6tFNPRmt(6/9) AAS
Googleが「Geminiロボティクス」の最新動画4本を一挙公開 ヒューマノイドAIも驚異的に進化、VLAモデルの動画を徹底解説
2025年9月27日
Google DeepMindが「Gemini Robotics 1.5」の最新動画を2025年9月26日に一挙に4本公開し、驚異的な進化が話題になりはじめています(動画のYouTube設定で
音声トラックに「日本語」を指定することで、AIによる日本語翻訳で解説を聞くことができる)。
「Gemini Robotics」はヒューマノイドを含むロボット工学向けに設計されたGeminiを基盤としたAIモデルです。
「Gemini Robotics」の最大の特徴は、ロボットを直接制御することを目的に、視覚(Vision)・言語(Language)・行動(Action)を統合したVLA(Vision-Language-Action)モデルを追求し、
現実世界で汎用的に動作できる点です。VLAモデルは現在のAIロボティクス分野で最も注目されている最先端技術のひとつです。
「Gemini Robotics 1.5」は、高次元の思考・計画機能を持つ補助モデル「Gemini Robotics-ER 1.5」と連携して設計され、複雑なタスクやマルチステップの実行で、
単なる反応的な動作ではなく「先読み」「分割実行」「ツール利用」などが拡張されています。
では、各動画とポイントを見ていきましょう。
・Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
・Gemini Robotics 1.5: Using agentic capabilities
・Gemini Robotics 1.5: Learning across embodiments
・Gemini Robotics 1.5: Thinking while acting
冒頭の「Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks」は以降の3つの動画を包括的にまとめたものになっています。
時間のない人はまずはこれを見るとよいでしよう。じっくり理解したい人のために、この記事ではあえてラストに解説します。
省2
765: 09/28(日)10:24 ID:6tFNPRmt(7/9) AAS
動画では、ロボットが「エージェンティックAI(AIエージェント)の能力、エージェンティック(agentic)能力」を持つことにフォーカスしています。今までは単純に「命令」を受けて
「動作」するだけの行動だったものが、エージェンティックAIの進化によって、自律的に判断・計画・行動ができるようになる、という能力です。
エージェンティックAIによって、環境を観察し、目標を分割したり、優先度をつけたり、その場で戦略を変えたりしながら動作を決定する、その一連の様子が見て取れると思います。
もうひとつ重要なポイントとして、エージェンティックAIは必要なツール(例えば Google検索など)を呼び出したり、外部の情報にアクセスすることで、必要な知識をAIロボットが
補完しながら行動できる能力も示唆しています。この機能はロボティクスに限らず、ビジネス分野でも、最新のエージェンティックAIが、目的を遂行するために必要なソフトウェアや
APIをAIが自律的に活用する機能として注目されています。
また、動作を実行する際の思考プロセス(行動をステップごとに言語で表現する思考)をAIが生成している可能性もあります。「思考してから動く (think before acting)」能力を垣間見ることができます。
Gemini Robotics 1.5: Learning across embodiments
ロボットが把持や物体操作、持ち替える動作などの具体的なタスクを、複数のロボット構成であっても同一のモデルがで実行できる様子に着目するとよいでしょう。
この動画の「embodiment(具現体・身体構成)」とは、ロボットの形や関節やセンサー構成などを指す用語として使われています。従来、ひとつのロボットで学習した動作を別の形状のロボットに
そのまま適用するのは困難でした。例えばアーム型、双腕型、ヒューマノイドでは、基本構造はもちろん、関節の自由度、動力の特性等が異なるためです。しかし、次世代のロボット基盤モデルでは、
その違いをソフトウェアが吸収することを目指して研究が進められています。
766: 09/28(日)10:25 ID:6tFNPRmt(8/9) AAS
この動画では、「Gemini Robotics 1.5」は「ロボットの種類や身体構成が異なっていても、学習した動作やスキルを別のロボット(embodiment)に転移(transfer)できる」能力の成果が示されています。
動画の中で、Google DeepMindは、アーム型ロボットの「ALOHA2」で学習したスキルを、双腕ロボット「Franka」やヒューマノイド「Apollo」にそのまま応用(転移)したデモを披露しています。
こうした能力は、ロボット学習における汎化性能を大きく高めます。従来のようにロボットのメーカーや機種が異なる度にAIの膨大な再学習が必要なくなれば、時間やコストを大幅に削減できる可能性があります。
Gemini Robotics 1.5: Thinking while acting
「thinking while acting」とは「思考しながら動く」ことで、タスクを実行中にも判断と制御をリアルタイムで更新し、次に行うべき最適な動作を絶えず思考しながら実行できるスキルを指しています。
従来は「ある計画を立てたらその通りに実行する」というのがプログラムにとってはセオリーでしたが、人はタスクの途中に障害物が現れたり、物の位置が変わったり、他の人が介入するなど、
予期しない環境変化を認識したとき、臨機応変に対応しようとします。身体性を持ったAIロボットにも同様に「thinking while acting」が重要です。
具体的には、タスク遂行中にも「思考ステップ:中間推論(intermediate reasoning)」を生成・更新しながら、次の動きを決定する様子を動画で確認することができます。
Google DeepMindのブログによれば、「思考 (thinking) を経てから動く (think before acting)」というスキルをさらに発展させた形として「思考しながら動き続ける」能力が重要視されています。
省1
767: 09/28(日)10:27 ID:6tFNPRmt(9/9) AAS
Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
「複雑なタスク」を解くために、ロボットが「計画 (planning)」「思考 (thinking)」「ツール使用 (tool use)」まで組み合わせて行動するなど、総合的な作業を達成できる様子を紹介したものです。
以降の3つ動画が詳細に解説していることを包括的にまとめたものでもあります。
他の3つ動画で示されているように、ロボットが単純な命令に応えるだけではなく、タスクのゴールまでのプロセスを分解して段階的なステップを生成し、そのステップにもとづいて行動し、
必要に応じて外部ツール(検索、データベース参照、情報取得など)を活用して補助を行う能力を達成する可能性が示されています。
例えば、「洗濯物を色別に仕分けする」「ある地域(サンフランシスコなど)のゴミ分別ルールを調べて適切に分類する」など、作業のタスクが複数の段階にわたっていても、
AIロボットが自律的に考えて実行していく可能性を示唆しています。
また、AIロボットが「リーズニング」を生成し、それをもとに行動を段階的に実行していく手法として「思考してから動く (thinking before acting)」ことも示されています。
例えば「AIロボットが実世界で何をすればいいか判断するために、ウェブ検索をかけてその地域のゴミの分別ルールを参照」することで、より詳細な情報を取得して行動の精度を上げたり、
改善するため活用するといったタスクに発展できる可能性があります。
ビジネス分野でも「AIエージェント」は単にユーザーの質問に回答するツールとしてだけでなく、「思考」「計画」「実行プロセス立案」「選択」「ツール呼び出し」「実行」「成果と評価」といった
一連の流れを自律的に行うことが期待されています。身体を持ったロボットにも自身が自律的に構成して制御できるスキルが求められていることを示した内容になっています。
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.040s