労働の完全自動化(人の楽園? or 失業地獄?)2 (767レス)
上下前次1-新
1: 2020/06/24(水)06:21 ID:dgLrGMyG(1) AAS
労働を完全自動化する未来技術について
人を労働から解放する楽園になるのか?それとも?
労働完全自動化の技術の可能性と影響について議論しましょう
前スレ
労働の完全自動化(人の楽園? or 失業地獄?)
2chスレ:future
738: 09/25(木)20:39 ID:+vs8a8Ic(15/15) AAS
「大手の」倉庫はどんどん自動化されてる
そして既存の棚すら管理できるようになったから中小企業も導入できる
自動運転はレベル2程度でも出来たと謳って導入されているのはどんなものか
しかし現業系でも物流の自動化の試みだけは目覚ましいな
739: 09/26(金)05:19 ID:oRCAy/C2(1/5) AAS
家庭用ヒューマノイドロボット普及はすぐそこまで? AI・ロボット関連イベント、都内で開催
9/26(金) 0:15配信
25日、都内でAIやロボットの技術などについて議論する日本最大級のカンファレンスが開かれました。
「GMOインターネットグループ」が主催した今回のイベントは、アメリカや中国などに比べ、AIやロボティクス産業で日本がおくれをとりつつある状況を打開するのが狙いで、
研究者や関連企業、政府関係者などが集まりました。
イベントでは、研究者らがAIやロボットの社会での活用などを訴えたほか、政府のAI戦略会議で座長を務める東京大学大学院の松尾豊教授も登壇。
松尾教授は、人間と同じような形をした家庭用ヒューマノイドロボットについて「クルマやスマホの次にくる非常に大きな市場」だとし「危機感があり、日本としてここをとられるとやばい」と話しました。
また、主催したGMOの熊谷正寿CEOは「2026年はヒューマノイド元年」だとして、ヒューマノイドロボットが介護や産業界に広がり、家庭用にも2〜3年で普及するかもしれないとの
見通しを語りました。また、ドローンが兵器として利用されている状況をあげ、「日本は産官学が一致団結して連携し、AI・ロボティクスの平和利用で世界のイニシアチブをとるべきだ」と訴えました。
740: 09/26(金)11:49 ID:oRCAy/C2(2/5) AAS
中国「世界最速」犬型ロボットが登場 浙江大学などが開発「秒速10mを実現」
9/26(金) 8:29配信
ロボット開発の盛んな中国・杭州市で、世界で最も足が速いという犬型ロボットが登場しました。
25日に中国・杭州市で始まった博覧会に出品されたのは、世界最速という犬型ロボット「ブラックパンサー2.0」です。
黒いボディーからすらりと伸びた4本脚で走り出すと、秒速およそ10メートルまで加速できるとしています。
中国の名門として知られる浙江大学の研究センターと、スタートアップ企業が共同開発しました。
鏡識科技 蘭国栄エンジニア
「足それぞれにバネがあり、走行中に地面からの衝撃を大幅に吸収し、それを走るエネルギーに変えます」
研究者は「今後、さらに速いロボットを開発したい」と意気込んでいます。
741: 09/26(金)12:53 ID:oRCAy/C2(3/5) AAS
2025年09月26日 12時36分 ソフトウェア
Googleがロボット用のAIモデル「Gemini Robotics 1.5」を発表、思考して行動を決定できる
742: 09/26(金)16:00 ID:oRCAy/C2(4/5) AAS
Google、ロボットが「行動する前に考える」AIモデル ゴミの分別も可能
9/26(金) 15:31配信
Googleは、汎用ロボット実現に向けた2つの新しいAIモデル「Gemini Robotics 1.5」と「Gemini Robotics-ER 1.5」を発表した。
ロボットが何かの仕事をするとき、状況を読み解き、実現するまでの手順を理解して行なう必要がある。例えば「この地域のルールに合わせて、目の前のゴミを分別して」
とロボットに頼んだ場合、ロボットはインターネットで地域の分別ガイドラインを検索し、目の前のゴミの理解、ルールに基づいた分別方法を判断する必要がある。
そのうえで実際に正しいゴミ箱へ捨てるという一連の行動を実行する。こうした複雑な工程をロボットが行なえるよう設計されたのが、今回開発された2つのモデルになる。
「Gemini Robotics 1.5」は、ロボット全体の頭脳のように機能し、全ての活動を統括する。人間と自然な言葉で対話し、タスクの成功率や進捗を予測するほか、
必要に応じてGoogle 検索のようなツールなどを使い情報を集める。
「Gemini Robotics-ER 1.5」は導き出した計画をステップごとに自然言語の指示に変換し、Gemini Robotics 1.5へと伝えるモデル。指示を受けたGemini Robotics 1.5は、
視覚と言語の理解能力を用いて、具体的なアクションを直接実行する。
743: 09/26(金)16:01 ID:oRCAy/C2(5/5) AAS
Gemini Robotics 1.5は自らの行動について思考することで、複雑なタスクを実現するだけでなく、その思考プロセスを人間に言葉で説明することもできる。
これにより、ロボットの意思決定の透明性が高まる。
従来の視覚・言語・行動モデルは、与えられた指示や計画について、ロボットの動きに直接的に変換するだけだった。Gemini Robotics 1.5では、単に指示を変換するだけでなく、
行動前に自ら思考することが可能。複数の手順や深い意味の理解が必要なタスクに対して、内的な推論と分析による思考プロセスを組み立て、実行する。
例えば「洗濯物を色分けして」という指示を与えられると、ロボットは異なるレベルで思考。「色分け」とは白い服は白いカゴへ、それ以外の色は黒いカゴへ入れる、
という目的を理解する。次に、「赤いセーターを拾い、黒いかごへ入れる」という具体的なステップも思考。さらに、「セーターを掴みやすくするために、一度手前に引き寄せる」など、
手順を実行するための細かな動作まで自分で考えることができる。
これにより、より長いタスクを、ロボットが確実に実行できるようなシンプルで短い単位へ分解することを自らの判断で行なえる。
これはモデルが未知のタスクや状況に対応する能力を高めることにも繋がるという。
また、これまでロボットは形状やサイズ、センサー等の違いから、異なるロボット同士で学習したスキルを共有することは難しかった。
Gemini Robotics 1.5では、異なるロボットで学習したスキルをそのまま他のロボットに移行することが可能になる。
744: 09/27(土)09:35 ID:dKp0quWz(1/15) AAS
「動ける」から「働ける」へ⋯中国Daimon Robotics、視触覚センサーでロボットを進化
9/27(土) 8:30配信
視触覚センサーのスタートアップ「戴盟機器人(Daimon Robotics)」はこのほど、エンジェル++ラウンドで資金調達をした。招商局創投(China Merchants Venture)が主導し、
東方嘉富(Oriental Jiafu)と架橋資本(Bridge Capital)も出資した。過去1年間で、3回にわたり資金調達を完了し、累計金額は数億元(数十億円)に達した。
触覚センサー分野のエンジェルラウンドとしては過去最高記録を更新した。
戴盟機器人は2023年に設立され、香港科学技術大学ロボット研究院の初代院長である王?U教授と段江嘩博士が共同で創業した。深圳に本社を置き、香港に研究開発
(R&D)センターを有し、高性能な視触覚認識と操作技術の研究開発と産業化に力を入れている。
エンボディドAI(身体性を持つロボット)が着実に実装されるプロセスにおいて、ロボットは「動ける」から「働ける」へと進化する必要がある、というのが業界の共通認識だ。
工業製造、スマート物流、医療、リハビリなどのタスクでは、より高い操作精度、柔軟性や未知の状況に対応できる汎化能力が求められる。
しかし、視覚に依存するロボットは、スムーズにモノをつかむ、精密な組み立て、相互に連動といった複雑な任務では依然として限界がある。既存の触覚センサーも解析能力、
多様な信号の取得、耐久性やコストの面で制約があり、長期に渡ってロボットが高精度な作業を続ける能力的なボトルネックとなってきた。
そのため、解析能力の高い触覚センサーは、ロボットの操作能力を高める鍵と見なされている。
長年の技術的な蓄積に基づき、戴盟機器人は単色光を用いた視触覚方式を打ち出した。マサチューセッツ工科大学(MIT)で開発されたGelSight方式で一般的な三色光を使う手法と比べ、
単色光方式は演算量と発熱を抑え、長時間の稼働を可能にしている。
745: 09/27(土)09:36 ID:dKp0quWz(2/15) AAS
同社が独自開発した視触覚センサーは、1平方センチメートルあたり4万もの感知ユニットを有しており、人間の指先の240ユニットをはるかに上回る。従来のマトリクス状に配置された
触覚センサー(アレイ型センサー)の数百倍に達し、形状、表面の質感(肌触り)、硬さ、滑りやすさ、押した際の圧力、接触面で動かす力(接線力)などの多様な情報を高精度に捉えることができる。
さらに、同社はすでに物をつかむ機構のグリッパーからミリ単位の指先まで対応する複数の製品を開発している。旗艦センサーは500万回の押圧テストをクリアし、欧州連合(EU)で
販売する基準に適合していることを示すCE(Conformité Européenne)や、米国の連邦通信委員会(Federal Communication Commission、FCC)の認証を取得した。
発表からわずか3カ月以内に、国内外で導入され、1000個単位の規模で出荷された。工業検査やスマート物流、製造、サービスといった場面で活用が進む。
視触覚認知に基づき、戴盟機器人は「認知―操作―学習」のすべての工程の製品マトリクスを構築した。
「DM-Tac W」:表面の質感(肌触り)、滑りやすさ、硬さを識別できる高い解析能力の視触覚センサー
「DM-Hand1」: 指先に超薄型の視触覚センサーを統合した高機能な手の機構
「DM-EXton」:データ収集とモデル学習向けのウェアラブル装置が含まれる
視触覚を統合することで、操作モデルが必要とするデータ量は従来の1000分の1に減り、業務の種類のカバー範囲と作業の成功率が大幅に向上する。
段CEOは、触覚認知と高性能な操作を核とし、エンボディドAI(ロボット)をより多くの産業に実装し、ロボットを実際に活用できる価値を広げていきたいと述べた。
746: 09/27(土)09:37 ID:dKp0quWz(3/15) AAS
航空機開発は「3D UNIV+RSES」でどう変わる? ダッソーが描く未来像
9/26(金) 21:00配信
ダッソー・システムズは2025年9月10日、同社がシルバースポンサーを務める「大阪・関西万博」のフランスパビリオン(フランス館)において、航空/宇宙業界向け特別イベント
「Space Event」を開催。仏Dassault Systemes 航空宇宙・防衛担当 バイスプレジデントのDavid Ziegler(デイヴィッド・ジグラー)氏が、航空/宇宙、防衛産業に向けた
同社の取り組みやビジョンについて語った。
ダッソー・システムズは、航空/宇宙産業に向けて約40年にわたりビジネスを展開しており、現在も世界の主要航空機メーカーに対して、設計、製造、運用/保守における
“バーチャルツインエクスペリエンス”を提供し続けている。
例えば、安全性などの認証を得るために必要な機体構造の高度なシミュレーションから、航空管制をはじめとする複雑な課題の解決に至るまで、幅広い領域をカバーし、
迅速なシナリオの探索や将来の挙動予測などにおいて、正確な解決策の導出に役立てられているという。
ジグラー氏は「航空機などの製造もまた、バーチャルツインによって革命的に進化する」と強調する。通常、航空機の製造工場の立ち上げには数百万ユーロもの
費用がかかるが、設備や装置などの物理的なシステムを導入した後に設計ミスが判明した場合、その修正には膨大なコストが必要となる。これに対し、バーチャルツインを
活用したアプローチであれば、設計チームと連携しながら工場全体を仮想空間で可視化し、プロセスや生産物、周辺環境への影響などを着工前にシミュレーションすることが可能となる。
「このように、製品ライフサイクル全体を通じた持続可能なビジネス革新が可能となり、リスクを低減しながら収益性を高める新たなビジネスモデルの探索につなげることができる。
リアルとバーチャルをつなぎ、未来を想像し、それを実現する。われわれが提供する“バーチャルツインエクスペリエンス”の世界には、新たな機会が広がっている」(ジグラー氏)
747: 09/27(土)09:38 ID:dKp0quWz(4/15) AAS
ジグラー氏によると、航空/宇宙や防衛産業における現状の課題は、イノベーションの創出だという。具体的には、持続可能な航空燃料の使用や材料の活用、
電動航空機/水素航空機の量産化といった脱炭素航空機の実現が挙げられる。
製造面でも課題がある。需要に対して生産能力が追い付いていない状況があるという。ジグラー氏は「例えば、AirbusのA320の受注残は7年分の生産量に相当する。
つまり、注文してから納品まで7年待たなければならないことを意味する。これは現実的ではない」と説明する。
生産能力を増強すると、品質やサプライチェーンの課題も浮き彫りになる。「部品やコンポーネントの不足、貿易戦争、関税の影響などが原因でサプライチェーン全体が
再編成される中、この不確実性をどう管理するかが、航空/宇宙や防衛分野のCEOたちにとって大きな課題となっている」(ジグラー氏)。
その他、業界特有の規制強化への対応についても「今後数年間における重要なテーマの一つになる」とジグラー氏は訴える。
一方で、エンジニアリングライフサイクルを加速し、製造を改善する存在として、AI(人工知能)への期待も非常に高まっているという。防衛分野では、
AIが自律型ドローンや自律型走行車両など、次世代の防衛能力を実現するために不可欠な技術として位置付けられている。また、航空/宇宙および防衛産業においても、
熟練エンジニアの高齢化や退職、技術継承の問題が顕在化しており、AI活用による解決が求められている。
ダッソー・システムズは40年以上にわたり、航空/宇宙および防衛産業に関連する多くの企業とパートナーシップを構築し、これらの問題解決や将来の課題に向けた対応において、
同社のソリューションを提供してきた。「今飛んでいる航空機のほとんどが、われわれのソリューションで設計/シミュレーション/製造/運用されているといえる。これは
ダッソー・システムズにとっての誇りであると同時に、非常に大きな責任であると認識している」(ジグラー氏)
748: 09/27(土)09:39 ID:dKp0quWz(5/15) AAS
そして今、ダッソー・システムズが掲げているのが、「3D UNIV+RSES」による新たな革新の提供だ。
ジグラー氏は「この40年もの間、われわれはバーチャルツインの表現を高め続けてきた。さらにその先には、バーチャルツインがオペレーショナルデータ(あらゆる運用データ)と
接続され、世界を大きく変える未来が待っている。それこそが3D UNIV+RSESだ」と説明。例えば、航空機のバーチャルツインが工場のバーチャルツインとつながり、さらに
サプライチェーンのバーチャルツインとも接続され、航空機の設計だけでなく、製造や運用の改善までも同時に行うことが可能になるという。
この3D UNIV+RSESは、リアルとバーチャルの境目を縮める7つの要素によって支えられている。ジグラー氏はその中から一部を強調し、次のように説明した。
「まず、バーチャルツインだ。われわれの使命は、リアルとバーチャルの差を縮めることにある。単なるデジタルのコピーではなく、変革を実現するバーチャルツインの活用が
重要となる。シミュレーションやさまざまなシナリオを実行し、現実世界に変化をもたらす体験を提供することこそが、バーチャルツインの真の価値だ」(ジグラー氏)
次に、AIをベースとする「Generative Experiences(GenXp/生成体験)」と「Virtual Companions」について言及した。GenXpは、顧客が保有する膨大なオペレーショナルデータを
学習し、組み立て要件、設計、テスト検証などをAI駆動で自動化するものである。一方、Virtual Companionsは、エンジニアや現場作業者を支援するAIアシスタントであり、
作業者のタスクを自動化し、より正確かつ効率的に仕事を進められるよう補助する存在だ。
「Cycle of Life」も重要な要素の一つだという。ジグラー氏は「将来、エンジニアが管理すべきものとして、設計、品質、コストに加えて、サステナビリティという新たな要素が
含まれるようになる。3D UNIV+RSESを通じて、顧客が環境負荷を削減し、持続可能性の目標を達成できるよう支援する」と説明する。
749: 09/27(土)09:40 ID:dKp0quWz(6/15) AAS
これまでのディスプレイを通じた体験から脱却し、バーチャルツインで再現されたリアルな世界により深く没入できる「Sense Computing」では、Appleの空間コンピューティングデバイス
「Apple Vision Pro」と連携した没入型体験が可能となる。
「これらの要素を全て組み合わせた3D UNIV+RSESが、これからの航空機の開発/設計/製造の在り方を根本から変革する。膨大なオペレーショナルデータから顧客の知識と
ノウハウを学習し、GenXpを提供できるようにすることを目指す。これは、われわれの役割が単なるソフトウェア提供者から、顧客の知的財産を保護する守護者へと変わることを意味する」(ジグラー氏)
講演では、3D UNIV+RSES(特にAIやバーチャルツイン)がもたらす航空機開発の変革について、設計、解析、製造、運用/保守といったプロセスごとに、具体的なイメージが示された。
まず設計段階では、航空機を単なる製品ではなく複雑なシステムとして捉え、システムアーキテクチャの設計をAIが支援する。電子、電気、ソフトウェアといった複数分野の設計が自動化され、
将来的には上位レベルの要求仕様から、ワイヤハーネスやプリント基板(PCB)、さらにはそれらを制御するソフトウェアに至るまで自動生成できるようになることを目指している。
また、設計の各段階は完全なトレーサビリティーを保ちながら進められ、関係者が一貫したデータに基づいて意思決定できるようになる。
航空機を構成する機械部品の設計では、ジェネレーティブデザインが活躍する。部品が配置される空間や境界条件、負荷条件、製造方法(鍛造、鋳造、フライス加工、3Dプリントなど)を
入力するだけで、AIが複数の設計案を自動的に生成する。設計者は膨大な設計案の中から最適な形状を選択すればよく、大幅な設計作業の効率化が図られるようになる。
認証とテストに向けては、解析技術がその支援となる。従来の物理試験をシミュレーションに置き換え、再現性の高い高度なシミュレーションを通じて、安全性や規制適合性の証明に
つなげる。また、「AIはサロゲートモデルの開発を加速し、大規模GPUを活用することで、膨大なシミュレーションを高速に実行できるようになる。これにより、実機を使ったテストの
回数を減らすことができ、コスト削減と開発期間短縮を実現可能にする」(ジグラー氏)という。
750: 09/27(土)09:41 ID:dKp0quWz(7/15) AAS
製造段階では、AIアシスタントのVirtual Companionsが現場作業者を支援する。組み立て手順や作業指示をリアルタイムで提供するだけでなく、品質管理を自動化する
機能も担う。実際に、BoeingやDassault Aviationの工場では、この仕組みを活用して現場の品質検査が自動化されており、「最初から正しく作る」から「常に正しく作る」へのシフトが進んでいるとのことだ。
運用/保守の段階では、飛行データやメンテナンスデータがバーチャルツインに統合され、予知保全が実現される。実際の事例として、Dassault Aviationがフランス空軍と
取り組んだラファール戦闘機のケースでは、稼働率が10%向上したという成果が示された。「AIはこの段階でも重要な役割を果たし、大規模データ解析を通じて予知保全モデルを
進化させ、航空機の運用効率と安全性をさらに高めていく」(ジグラー氏)。
さらに、Apple Vision Proを活用したSense Computingについては、「ダッシュボードの表示、バーチャルコンパニオンによる支援、航空機の組み立てに関するガイダンスの
表示などが、リアルな没入空間の中で体験できるようになる」と、ジグラー氏はディスプレイ越しの体験からの脱却をあらためて強調した。
このように、ダッソー・システムズは、3D UNIV+RSESの提供を通じて、AI(GenXp)が設計から製造、運用/保守までをつなぎ、Virtual Companionsが現場作業を支援し、
Sense Computingがバーチャルツインを完全な没入空間へと変える世界の実現を目指している。
(取材協力:ダッソー・システムズ)
751: 09/27(土)09:49 ID:dKp0quWz(8/15) AAS
近未来の「おつかい」サービスに、世界が注目!トヨタが公道に放つ自律搬送ロボット「cocomo」。ウーブンシティで実証実験をスタート
2025.09.26 16:50
トヨタ自動車が次世代技術の実証都市として建設してきた「ウーブンシティ」では、自動運転や自律走行ロボット、電動小型モビリティなどの新技術が「人が生活するテストコース」の
中で実証実験される。この街では、多くのインベンター(発明家)が様々な社会的な取り組みに挑むことになるが、“モノを運ぶ”物流分野で注目されているのが、
トヨタ自動車東日本が開発に取り組む、自律搬送ロボット「cocomo(ココモ)」だ。
「cocomo(ココモ)」は、単独で走行が可能な自律走行ロボット。
人の手を介することなく、衛星測位システムや障害物センサーを活用することで、指定した目的地まで安全に走行でき、ユニット内には買い物かごをまるまる1個入れられるスペースが
設けられているなど、買い物支援など“モノ”を運ぶ分野での実用化が期待される次世代モビリティになる。
―― 自律搬送ロボット「cocomo(ココモ)」。宮城県産業技術総合センターなどと連携して機体構造の見直しや材料置換、トポロジー最適化(材料配置)や金属3Dプリンタ活用による機体の
軽量化を進め、運用効率の向上を図る。この技術を東北地域のものづくりにも活用してもらうことで、地域に貢献していくとのこと。
―― 「cocomo」の内部には買い物カゴがまるまる1個入るスペースがあり、ここにスーパーなどで購入した商品を積み込むことができる。
もともとは、東日本大震災の被害地で、人や物の移動の課題解決を目指す「東北モビリティ・プロジェクト」から生まれたロボットであり、すでに宮城県女川町や愛知県みよし市で
実証実験は実施済み。この未来都市には、さらなる進化改良を目指して持ち込まれる。
752: 09/27(土)09:50 ID:dKp0quWz(9/15) AAS
―― 人工衛星の電波(GPS)が届きにくい場所や目印がない広い場所など「cocomo」のレーザー計測が難しい環境でもスムーズに走行させるため、小型ロボットへの搭載に
最適化したLiDARとRTKなど、さまざまなセンサーを融合した自律走行システムの開発に取り組むという。
ウーブンシティでは、通信が途切れた際に安全な場所に自動移動する機能などの実証が行われるほか、GPSが届きにくい場所や目印がない環境でもスムーズに走行できるよう、
小型ロボットに最適化したLiDARやRTKといった、さまざまなセンサーを融合したシステムの開発が進められる予定。
―― Toyota Woven City内の道路や横断歩道を使い、「cocomo」との通信が遮断された時に自動的に安全な場所に移動し、通行の妨げにならないようにする機能などの実証実験が行われる。
すでに7月からウーブンシティ近隣の公道でも立証実験が実施されており、実際の公道を走行させることで得られる、各種データの蓄積・技術を習熟することで、実用化のステップも大きく進むことになる。
―― ウーブンシティでは、自由に安心して楽しめる電動小型三輪モビリティによるシェアサービスも実証される。モノはもちろん、人の移動の可能性も模索されることになる。
―― タグボートのようにクルマを導く、自律走行ロボット(Guide Mobi)によるシェアカーの自動搬送サービスも実証予定。
753: 09/27(土)14:01 ID:dKp0quWz(10/15) AAS
ホースの自動挿入を高精度化...戸田建設、爆薬装填ロボを開発
9/27(土) 13:10配信
戸田建設は山岳トンネル工事向けに、爆薬装填ロボット「To―RIGGER(トリガー)」を開発した。コンピュータージャンボとAI(人工知能)ロボットアームとの連携により、
装薬孔への爆薬装填ホースの挿入を高精度化した。模擬岩盤を用いた検証実験で有効性を確認済み。今後、無線発破システムなどと連携させ、発破作業の完全自動化を目指す。
UP設計コンサルタント(大阪市港区)、HCI(大阪府泉大津市)、虎乃門建設機械(東京都渋谷区)の協力を得て開発した。コンピュータージャンボと戸田建設が開発した
爆薬装填ホース自動挿入装置で構成する。コンピュータージャンボの制御によりブーム(機体の腕部)が自動で移動し、先端の受け架台を装薬孔の軸方向に対し
平行となるよう角度を調整して孔口の位置に合わせる。
さらに受け架台の先端に搭載した爆薬装填ホース自動挿入装置がAIロボットアームを使って装薬孔の位置を正確に検知し、ホースを高精度に自動挿入し爆薬を装填する。
これにより、爆薬装填作業の遠隔化や将来的な自動化が可能となるほか、作業員の切羽への立ち入り作業がなくなり、安全性を大幅に向上できる。
754: 09/27(土)14:09 ID:dKp0quWz(11/15) AAS
NVIDIAが語るフィジカルAIで加速するヒューマノイド開発の最前線「NVIDIA AI Day Tokyo」レポート ドメインランダム化とシム2リアル
2025年9月26日
NVIDIAは2025年9月24日と25日に、東京ミッドタウンでイベント「NVIDIA AI Day Tokyo」を開催し、25日には招待制のセミナーが実施された。
「NVIDIA AI Day Tokyo」は、すでに開催されたホーチミンに続き、東京、そして今後予定されているシドニーやソウルと並ぶ、グローバルイベントのひとつに位置づけられている。
25日のセッションでは、NVIDIAの担当者やパートナー企業が講師として登壇し、GPU、クラウドサービス、エッジAI、データセンターなどの分野で具体的かつ実践的な活用方法や
事例を紹介した。主要トピックは「エージェント型AI」「フィジカルAI」「AIファクトリー/AIインフラ」「ハイパフォーマンスコンピューティング(HPC)/量子コンピューティング」。
特に「フィジカルAI」については人気が高く、満席になるセッションが多かった。
今回の記事ではフィジカルAIのトピックからセッション「フィジカルAIで加速するヒューマノイドロボティクス NVIDIA Isaac GR00TとCosmosの紹介」の前半をベースに、
NVIDIAが提供しているロボティクス向け「フィジカルAI」の概要などを解説していきたい。
加瀬氏は、「フィジカルAI」について、大規模言語モデル(LLM)を使ってロボットを動かすイメージから紹介した。
例えば「トースターからトーストを取り出し、右側の白い皿に置いて」というテキストコマンドを入力すると、ロボットはカメラ画像などから得た認識情報を加味し、
アクショントークンを生成。関節を自動制御し、指示どおりに動作する。
従来の産業用ロボットは、詳細なプログラミングによる「モデル化手法」で高精度な動作を実現してきた。しかし、設計やティーチングには多大な手間と時間がかかり、想定外の状況への対応は難しい。
一方、近年注目を集めている「フィジカルAI」は経験を学習して動作する。いわゆる強化学習(多くの経験パターンから学ぶ)をもとにしていて、数学的に設計するのが
難しいタスクにも対応することができる、従来のコンピュータよりも、人に近い学習方法とタスク対応が特徴になる。
755: 09/27(土)14:10 ID:dKp0quWz(12/15) AAS
現場では、「モデル化手法」と「フィジカルAI」を排他的に扱うのではなく、高精度や高速性が求められるタスクには「モデル化手法」を、汎化的で幅広い作業には
「フィジカルAI」を導入するなど、使い分けが重要になる。その意味で、人型ロボットという形状はフィジカルAIの適用先として合理的だ(もちろん言葉で言うほど簡単なことではないからこそ、
チャレンジングであり面白い)。
LLMがネットなどの膨大なデータから学習してスキルを向上させたように、フィジカルAIもまた膨大な学習データ、アクションデータが必要になり、それをどうやって収集するかが課題だ。
そこで一般的にまず行われるのがテレオペレーション(遠隔操作)によるデータ収集だ。人が遠隔操作でロボットを操縦することでアクションデータを収集していく。
ただし、それだけでは汎化性の実現は不十分だ。例えばキッチンで皿を並べる場合、人は環境や食器が変わっても柔軟に対応できるが、AIにすべてのバリエーションを学習させるのは
現実的ではない。膨大な環境や物品を実際に用意して体験データを収集するには時間とコストが障壁となる。
この課題を解決するのがシミュレーションの活用「ドメインランダム化」だ。可能な限り多様な仮想環境で学習させ、リアル環境に応用することで汎化性を高める。もちろん、シミュレーションと
実環境は完全には一致しないため、実機にデプロイしてからのフィードバック調整(シム2リアル)やファインチューニングが必要となる。
756: 09/27(土)14:12 ID:dKp0quWz(13/15) AAS
シミュレーションでできる限り多くのパターンを学ぶ点では、同時に大量の数のロボットを仮想環境で動かすことによって、膨大なデータを収集し、学習していく手法もとられる。
下の画像は「Isaac Sim / Lab」で4000台のロボットがアクションデータを収集して学習のために利用する例だ。
「Isaac Lab」(ラボ)は、NVIDIAのロボティクスシミュレーションプラットフォーム「Isaac Sim」が提供するシミュレーション機能を活用し、多くのロボット(マニピュレーター、
四足歩行ロボット、ヒューマノイドなど)向けの学習環境とツールを提供している。
ファインチューニングとは、膨大なデータで事前学習した汎用的なAIモデルを、特定のタスクや環境に合わせて少量のデータを使って再学習して調整する技術。
これにより、ロボットの精度や効率、パフォーマンスを向上させることができる。
これらによって、現実世界のテレオペレーションで得たデータと組み合わせて、精度と汎化性を高める学習環境が整う。
LLMを中心とした生成AIを使ったことがある人は体感していると思うが、生成AIはテキストから画像を創ることができる。例えば、シミュレーションのデータとして活用するための
アイテムの生成には従来とても時間がかかる作業だったが、生成AIを活用すると瞬時に様々なパターンのアイテムや環境を生成することができる。この技術もシミュレーション環境の構築に活かされている。
汎化性を一層高める技術として「世界基盤モデル(World Foundation Model)」が導入されつつある。加瀬氏のセッションでは、その代表例として「Cosmos」が紹介された。詳細は今後さらに掘り下げたい。
世界一のAI企業、NVIDIAはヒューマノイド向けAIやロボットの開発基盤「NVIDIA Isaac GR00T」の提供を2025年から開始しました。
NVIDIAが提供するフィジカルAI開発のためのプラットフォーム「NVIDIA Omniverse」や、ロボティクス向けの「NVIDIA Isaac Sim」などによって、ヒューマノイドロボット開発の効率が
格段に向上したと言われています。世界的に知られるロボット開発企業も既に使い始めています。
757: 09/27(土)14:13 ID:dKp0quWz(14/15) AAS
警備ロボット「SQ-2」に人物検知機能を搭載し、正式リリース SEQSENSE
2025年9月26日
SEQSENSE株式会社は、警備ロボット「SQ-2(エスキューツー)」に「人物検知機能」を搭載し、2025年9月22日(月)より警備ロボットサービスの一部として正式リリースした。
独自の技術を活用した本機能は、警戒エリアへの侵入者や残留者を検知し、警備員にリアルタイムで通知することで、警備レベルの向上と警戒監視の効率化を実現する。
本機能は、ロボットが稼働中に、指定されたエリア・時間帯で人物を検知すると、操作監視用パソコンに通知を出す。これにより、閉館後の施設内における侵入者など不審人物の早期発見と迅速な対応が可能になる。
これまで一部サイトで試験的に導入していたが、今回、警備ロボットサービスの一部として正式にリリースに至った。
758: 09/27(土)14:17 ID:dKp0quWz(15/15) AAS
人物検知機能は、SEQSENSEが提供する警備ロボットサービスの標準機能として利用できる。新たな機器設置やオプション料金は不要となっている。
3D LiDARを搭載し、詳細な3次元マッピングや動体検知、環境変化の検出が可能なロボット。立哨、巡回、来館者対応など警備業務の代替により、
施設の管理コスト削減に寄与する。また、独自の検知機能などの活用で警備レベル向上を実現している。
SEQSENSE株式会社は、日本国内で自律移動型ロボットの製造・開発を行う企業。ソフトウェア、ハードウェア、クラウドシステム、サービス設計から導入にかかわるコンサルタント業務まで自社で手がけ、
主力製品である警備ロボット「SQ-2」シリーズは、2025年9月時点で全国80台以上の導入を達成している。
759: 09/28(日)10:08 ID:6tFNPRmt(1/9) AAS
米中先行の人型ロボ開発、家庭・工場・被災地の現場を1体で担う「汎用型」目標に…競争加速で見直し
9/28(日) 5:00配信
内閣府は、社会を変えるような挑戦的な研究を支援する「ムーンショット型研究開発制度」で、家庭や工場、被災地など様々な現場で活躍できる汎用(はんよう)の人型ロボットの開発を
新たな目標に定める方針を固めた。2030年までに試作機を作り、基盤技術の獲得を目指す。米中をはじめ海外で人型ロボットの開発競争が加速する中、日本の研究開発を促進したい考えだ。
20年に始まった同制度は、国が挑戦的な目標を定めて研究を公募し、総額約4000億円の基金から最長10年間支援する。現在「台風や豪雨を制御」「100歳まで健康不安なく人生を楽しむ」
など10の目標があり、今回はこのうちの「人と共生するロボットを実現」の内容を見直す。人工知能(AI)の発展で、汎用の人型ロボットが現実味を帯びてきたことが背景にある。
これまでは人型に限定せず、介護や家事、災害対応などに使われるロボットの開発を個別に進めていた。
新たな目標として、これらの作業を1体で担える人型ロボットの開発を目指す。30年までに、人間の支援の下で一定数の作業に対応できる試作機を製造する。民間投資の呼び水とするほか、AIの研究を後押しする狙いもある。
50年までに、学習しながら自律的に判断し、人間と同等以上の身体能力を備えたロボットを目指す。今年度中に新たな研究代表者などを公募する予定だ。
現在普及している産業用などのロボットは、特定の用途のみに使われ、活動できる現場も限定的だ。一方、一般社会の建物や道具などは人間向けに作られているため、あらゆる現場で使うには人型が適している。
汎用の人型ロボットの開発は加速している。米国では、電気自動車大手のテスラが、工場や家庭などでの利用を想定した「オプティマス」を開発し、来年にも量産を始める予定だ。
中国も人型ロボットを米国との先端分野の覇権を争う重要分野と位置付け、将来の労働力不足も見据えて急速に技術力を高めている。
内閣府の担当者は「当初の想定より技術の進展が速く、より野心的な目標に見直す。日本の強みであるロボット技術を発展させたい」と話している。
760: 09/28(日)10:17 ID:6tFNPRmt(2/9) AAS
GMO熊谷氏「ヒューマノイドは自動車産業を超える」家庭にも普及する? 熊谷氏がCEOのAIヒューマノイドと共同記者会見
2025年9月26日
GMOインターネットグループは2025年9月25日(木)に「GMO AI・ロボティクス大会議&表彰式2025」を開催した。イベント終了後には、同グループ代表の熊谷正寿氏による
プレスカンファレンス(記者会見)が行われ、ヒューマノイドに対する思いや、今後ヒューマノイドが社会にどのように浸透していくかについて語られた。
プレスカンファレンスには、AI・CEO「ヒューマノイド 熊谷正寿」も同席した。
AI・CEO「ヒューマノイド 熊谷正寿」は、日本で初めてAI・CEOをヒューマノイドロボットとして具現化したもの。ボディは「Unitree G1」で、顔にはディスプレイを搭載、熊谷正寿CEOの顔や表情を写している。
チャットボットを通じて対話を行うことで、事業における意思決定のさらなる高速化が可能とされる。これまでに3,500セッション以上、6,800回を超える対話を実施してきたという。
GMOインターネットグループは、意思決定のさらなる高速化が必要だと考え、2024年7月から「GMO Brain AIプロジェクト」を推進。その第1弾として、同年12月に社内向け独自AIツール
「AI 熊谷正寿」をパートナー(従業員)向けに提供開始した。「AI 熊谷正寿」は、熊谷氏の思考やフィロソフィー、そしてGMOインターネットグループのカルチャーを集約・言語化した
「GMOイズム」を学習した“バーチャル知的ナビゲーター”として位置付けられている。
今回のヒューマノイドは、そのプロジェクトをさらに一歩進めた形となる。
「GMO Brain AIプロジェクト」での「ヒューマノイド 熊谷正寿」の意義について問われた熊谷氏は、次のように語った。
定性的ですが、回答精度という点では、彼(ロボット)は今はまだ80%くらいです。しかし、私のことを毎日学習しています。人は1日8時間労働ですが、ロボットは24時間365日働くことができます。
私は1つの会議にしか出席できませんが、彼は10台のコピーを作れば10の会議に同時に出席できます。私が100の精度で答えられても、彼が80の精度でも10の会議に出席できるなら、
会社全体で見れば彼の方が生産性は高いとも言えます。
761: 09/28(日)10:18 ID:6tFNPRmt(3/9) AAS
これが、私の考え方を移植したAIを物理的に搭載したAIヒューマノイドの可能性であり、社会的に意義のあることだと感じています。
今はまだ実験段階ですが、多くのアンケートやデータを取得し、定量的・定性的に彼の存在意義をレポート化して発信していきたい。AIロボティクスの社会実装に
役立てたいという思いで、このプロジェクトをスタートしました。」
ヒューマノイド事業のポテンシャルについて問われた熊谷氏は、次のように語った。
ヒューマノイド市場は、自動車産業を超える規模に近々成長する可能性が十分にあると考えています。テスラのイーロン・マスク氏は、2025年に自社工場でオプティマスを数千台導入し、
その後本格的な大量生産と外販を開始し、2027年までに年間50万台の生産を目指しているという報道もあります。中国政府もヒューマノイド開発支援に全力で取り組んでいます。
私自身も、ヒューマノイドが今後の産業革命の中心になると考えています。日本におけるヒューマノイド事業では、GMO AIR(GMO AI&ロボティクス商事)を中心的な企業に育てたい。
現在はまだ啓蒙活動の段階と捉えていますが、成長するヒューマノイド産業のトップランナーにしたいと思っています。
762: 09/28(日)10:19 ID:6tFNPRmt(4/9) AAS
ヒューマノイドは産業利用と家庭利用のどちらが先に普及するかという問いに対し、熊谷氏は次のように述べた。
産業利用は作業がパターン化されているため、家庭利用に比べると簡単です。すでに工場で産業用ロボットが普及しているのは、作業がパターン化されているからです。
一方、家庭利用では代わりにやってほしい作業が家庭ごとに異なり、バラエティに富んでいてパターン化が難しい。例えば洗濯を例にとると、洗濯機の役割はシンプルですが、
洗濯物を畳む方法やアイロンのかけ方は人によって好みが違います。家庭用ロボットに求められるスキルの実現は難しいですが、実現は時間の問題です。人が思っているより早く、数年でできるようになるでしょう。
そう考えると、産業用やビジネス用途ではすぐにできることが増え、急速に普及していくと思います。
ただし、普及には価格も重要です。家庭に普及するためには、軽自動車程度の価格帯になる必要がありますが、それも2〜3年先には実現するのではないでしょうか。
今はまだ想像できないかもしれませんが、2〜3年後には家庭にヒューマノイドがいる、そんな時代が来る可能性があると考えています。
763: 09/28(日)10:20 ID:6tFNPRmt(5/9) AAS
人の動作をリアルタイム転写するヒューマノイドロボットをEmplifAIが実装「人の即興性×ロボットの到達性」共同実証パートナー募集
2025年9月26日
株式会社EmplifAIは、操作者の身体動作や意図をリアルタイムにヒューマノイドロボットへ転写する遠隔・身体共有型テレプレゼンスの実装に成功したと発表した。
同技術は、ステージ演出・ライブ配信などの「人が乗り移った」ような体験や、高所・狭隘・被ばくリスク等を伴う現場での代替支援に発展し得ることを示している。あわせて、
PoC(概念実証)・実証実験の共同パートナー企業の募集を開始する。
自立させながらの身体制御は、既存の自律制御だけでは再現が難しく、現場適用のボトルネックだった。EmplifAIは、操作者視点の知覚と動作意図をロボットへ低遅延で写し取る
アプローチにより、「人の即興性×ロボットの到達性」を両立。初期検証では、腕・上体・歩行の協調などの基本動作で追従を確認している。
同技術の主な特徴は、低遅延・高追従性を実現し、操作者の上半身・手先の運動をロボットへリアルタイム反映することだ。汎用ロボット対応として、ヒューマノイド(例:Unitree G1等)を中心に、用途に応じて拡張可能となっている。
応用分野として、以下のケースが想定されている。
・エンターテインメント・ライブ演出:パフォーマーが「乗り移った」ロボットが舞台上で演技・所作を披露し、配信コンテンツの拡張が可能だ。
・教育・文化体験:熟練者の身体知を遠隔地へ「身体ごと」伝えるワークショップが実現できる。
・危険作業の代替支援:高所・狭隘・被ばく・有害物取扱い等の現場で、人の判断×ロボットの到達性を融合した作業が可能となる。
・イベント運営・接客:遠隔プレゼンスでの来場対応、案内、簡易作業などに活用できる。
同社は「この場面で使えるかも」「まずは軽く試したい」など、ラフな相談から歓迎するとして、共同実証パートナー企業の募集を開始した。
想定領域は、エンターテインメント・イベント、製造・物流、インフラ、研究、自治体などとしている。
764: 09/28(日)10:23 ID:6tFNPRmt(6/9) AAS
Googleが「Geminiロボティクス」の最新動画4本を一挙公開 ヒューマノイドAIも驚異的に進化、VLAモデルの動画を徹底解説
2025年9月27日
Google DeepMindが「Gemini Robotics 1.5」の最新動画を2025年9月26日に一挙に4本公開し、驚異的な進化が話題になりはじめています(動画のYouTube設定で
音声トラックに「日本語」を指定することで、AIによる日本語翻訳で解説を聞くことができる)。
「Gemini Robotics」はヒューマノイドを含むロボット工学向けに設計されたGeminiを基盤としたAIモデルです。
「Gemini Robotics」の最大の特徴は、ロボットを直接制御することを目的に、視覚(Vision)・言語(Language)・行動(Action)を統合したVLA(Vision-Language-Action)モデルを追求し、
現実世界で汎用的に動作できる点です。VLAモデルは現在のAIロボティクス分野で最も注目されている最先端技術のひとつです。
「Gemini Robotics 1.5」は、高次元の思考・計画機能を持つ補助モデル「Gemini Robotics-ER 1.5」と連携して設計され、複雑なタスクやマルチステップの実行で、
単なる反応的な動作ではなく「先読み」「分割実行」「ツール利用」などが拡張されています。
では、各動画とポイントを見ていきましょう。
・Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
・Gemini Robotics 1.5: Using agentic capabilities
・Gemini Robotics 1.5: Learning across embodiments
・Gemini Robotics 1.5: Thinking while acting
冒頭の「Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks」は以降の3つの動画を包括的にまとめたものになっています。
時間のない人はまずはこれを見るとよいでしよう。じっくり理解したい人のために、この記事ではあえてラストに解説します。
Gemini Robotics 1.5: Using agentic capabilities
Gemini Robotics 1.5 が単に反応的に動くロボットではなく、ある種の自律的判断能力を持つ「AIエージェント」として振る舞えることを示しています。
765: 09/28(日)10:24 ID:6tFNPRmt(7/9) AAS
動画では、ロボットが「エージェンティックAI(AIエージェント)の能力、エージェンティック(agentic)能力」を持つことにフォーカスしています。今までは単純に「命令」を受けて
「動作」するだけの行動だったものが、エージェンティックAIの進化によって、自律的に判断・計画・行動ができるようになる、という能力です。
エージェンティックAIによって、環境を観察し、目標を分割したり、優先度をつけたり、その場で戦略を変えたりしながら動作を決定する、その一連の様子が見て取れると思います。
もうひとつ重要なポイントとして、エージェンティックAIは必要なツール(例えば Google検索など)を呼び出したり、外部の情報にアクセスすることで、必要な知識をAIロボットが
補完しながら行動できる能力も示唆しています。この機能はロボティクスに限らず、ビジネス分野でも、最新のエージェンティックAIが、目的を遂行するために必要なソフトウェアや
APIをAIが自律的に活用する機能として注目されています。
また、動作を実行する際の思考プロセス(行動をステップごとに言語で表現する思考)をAIが生成している可能性もあります。「思考してから動く (think before acting)」能力を垣間見ることができます。
Gemini Robotics 1.5: Learning across embodiments
ロボットが把持や物体操作、持ち替える動作などの具体的なタスクを、複数のロボット構成であっても同一のモデルがで実行できる様子に着目するとよいでしょう。
この動画の「embodiment(具現体・身体構成)」とは、ロボットの形や関節やセンサー構成などを指す用語として使われています。従来、ひとつのロボットで学習した動作を別の形状のロボットに
そのまま適用するのは困難でした。例えばアーム型、双腕型、ヒューマノイドでは、基本構造はもちろん、関節の自由度、動力の特性等が異なるためです。しかし、次世代のロボット基盤モデルでは、
その違いをソフトウェアが吸収することを目指して研究が進められています。
766: 09/28(日)10:25 ID:6tFNPRmt(8/9) AAS
この動画では、「Gemini Robotics 1.5」は「ロボットの種類や身体構成が異なっていても、学習した動作やスキルを別のロボット(embodiment)に転移(transfer)できる」能力の成果が示されています。
動画の中で、Google DeepMindは、アーム型ロボットの「ALOHA2」で学習したスキルを、双腕ロボット「Franka」やヒューマノイド「Apollo」にそのまま応用(転移)したデモを披露しています。
こうした能力は、ロボット学習における汎化性能を大きく高めます。従来のようにロボットのメーカーや機種が異なる度にAIの膨大な再学習が必要なくなれば、時間やコストを大幅に削減できる可能性があります。
Gemini Robotics 1.5: Thinking while acting
「thinking while acting」とは「思考しながら動く」ことで、タスクを実行中にも判断と制御をリアルタイムで更新し、次に行うべき最適な動作を絶えず思考しながら実行できるスキルを指しています。
従来は「ある計画を立てたらその通りに実行する」というのがプログラムにとってはセオリーでしたが、人はタスクの途中に障害物が現れたり、物の位置が変わったり、他の人が介入するなど、
予期しない環境変化を認識したとき、臨機応変に対応しようとします。身体性を持ったAIロボットにも同様に「thinking while acting」が重要です。
具体的には、タスク遂行中にも「思考ステップ:中間推論(intermediate reasoning)」を生成・更新しながら、次の動きを決定する様子を動画で確認することができます。
Google DeepMindのブログによれば、「思考 (thinking) を経てから動く (think before acting)」というスキルをさらに発展させた形として「思考しながら動き続ける」能力が重要視されています。
この動画では、途中で目標物が動いたり、障害物が現れたり、環境変化が起こっても、ロボットが思考を止めることなく、連続的に最適なタスクを再演算・更新しながら動作を修正しています。
767: 09/28(日)10:27 ID:6tFNPRmt(9/9) AAS
Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
「複雑なタスク」を解くために、ロボットが「計画 (planning)」「思考 (thinking)」「ツール使用 (tool use)」まで組み合わせて行動するなど、総合的な作業を達成できる様子を紹介したものです。
以降の3つ動画が詳細に解説していることを包括的にまとめたものでもあります。
他の3つ動画で示されているように、ロボットが単純な命令に応えるだけではなく、タスクのゴールまでのプロセスを分解して段階的なステップを生成し、そのステップにもとづいて行動し、
必要に応じて外部ツール(検索、データベース参照、情報取得など)を活用して補助を行う能力を達成する可能性が示されています。
例えば、「洗濯物を色別に仕分けする」「ある地域(サンフランシスコなど)のゴミ分別ルールを調べて適切に分類する」など、作業のタスクが複数の段階にわたっていても、
AIロボットが自律的に考えて実行していく可能性を示唆しています。
また、AIロボットが「リーズニング」を生成し、それをもとに行動を段階的に実行していく手法として「思考してから動く (thinking before acting)」ことも示されています。
例えば「AIロボットが実世界で何をすればいいか判断するために、ウェブ検索をかけてその地域のゴミの分別ルールを参照」することで、より詳細な情報を取得して行動の精度を上げたり、
改善するため活用するといったタスクに発展できる可能性があります。
ビジネス分野でも「AIエージェント」は単にユーザーの質問に回答するツールとしてだけでなく、「思考」「計画」「実行プロセス立案」「選択」「ツール呼び出し」「実行」「成果と評価」といった
一連の流れを自律的に行うことが期待されています。身体を持ったロボットにも自身が自律的に構成して制御できるスキルが求められていることを示した内容になっています。
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.017s