労働の完全自動化(人の楽園? or 失業地獄?)2 (767レス)
前次1-
抽出解除 必死チェッカー(本家) (べ) 自ID レス栞 あぼーん

リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
739: 09/26(金)05:19 ID:oRCAy/C2(1/5)調 AAS
家庭用ヒューマノイドロボット普及はすぐそこまで? AI・ロボット関連イベント、都内で開催
9/26(金) 0:15配信
25日、都内でAIやロボットの技術などについて議論する日本最大級のカンファレンスが開かれました。

「GMOインターネットグループ」が主催した今回のイベントは、アメリカや中国などに比べ、AIやロボティクス産業で日本がおくれをとりつつある状況を打開するのが狙いで、
研究者や関連企業、政府関係者などが集まりました。

イベントでは、研究者らがAIやロボットの社会での活用などを訴えたほか、政府のAI戦略会議で座長を務める東京大学大学院の松尾豊教授も登壇。

松尾教授は、人間と同じような形をした家庭用ヒューマノイドロボットについて「クルマやスマホの次にくる非常に大きな市場」だとし「危機感があり、日本としてここをとられるとやばい」と話しました。

また、主催したGMOの熊谷正寿CEOは「2026年はヒューマノイド元年」だとして、ヒューマノイドロボットが介護や産業界に広がり、家庭用にも2〜3年で普及するかもしれないとの
見通しを語りました。また、ドローンが兵器として利用されている状況をあげ、「日本は産官学が一致団結して連携し、AI・ロボティクスの平和利用で世界のイニシアチブをとるべきだ」と訴えました。
740: 09/26(金)11:49 ID:oRCAy/C2(2/5)調 AAS
中国「世界最速」犬型ロボットが登場 浙江大学などが開発「秒速10mを実現」
9/26(金) 8:29配信
ロボット開発の盛んな中国・杭州市で、世界で最も足が速いという犬型ロボットが登場しました。

 25日に中国・杭州市で始まった博覧会に出品されたのは、世界最速という犬型ロボット「ブラックパンサー2.0」です。

 黒いボディーからすらりと伸びた4本脚で走り出すと、秒速およそ10メートルまで加速できるとしています。

 中国の名門として知られる浙江大学の研究センターと、スタートアップ企業が共同開発しました。

鏡識科技 蘭国栄エンジニア
「足それぞれにバネがあり、走行中に地面からの衝撃を大幅に吸収し、それを走るエネルギーに変えます」

 研究者は「今後、さらに速いロボットを開発したい」と意気込んでいます。
741: 09/26(金)12:53 ID:oRCAy/C2(3/5)調 AAS
2025年09月26日 12時36分 ソフトウェア
Googleがロボット用のAIモデル「Gemini Robotics 1.5」を発表、思考して行動を決定できる
742: 09/26(金)16:00 ID:oRCAy/C2(4/5)調 AAS
Google、ロボットが「行動する前に考える」AIモデル ゴミの分別も可能
9/26(金) 15:31配信
Googleは、汎用ロボット実現に向けた2つの新しいAIモデル「Gemini Robotics 1.5」と「Gemini Robotics-ER 1.5」を発表した。

ロボットが何かの仕事をするとき、状況を読み解き、実現するまでの手順を理解して行なう必要がある。例えば「この地域のルールに合わせて、目の前のゴミを分別して」
とロボットに頼んだ場合、ロボットはインターネットで地域の分別ガイドラインを検索し、目の前のゴミの理解、ルールに基づいた分別方法を判断する必要がある。

そのうえで実際に正しいゴミ箱へ捨てるという一連の行動を実行する。こうした複雑な工程をロボットが行なえるよう設計されたのが、今回開発された2つのモデルになる。

「Gemini Robotics 1.5」は、ロボット全体の頭脳のように機能し、全ての活動を統括する。人間と自然な言葉で対話し、タスクの成功率や進捗を予測するほか、
必要に応じてGoogle 検索のようなツールなどを使い情報を集める。

「Gemini Robotics-ER 1.5」は導き出した計画をステップごとに自然言語の指示に変換し、Gemini Robotics 1.5へと伝えるモデル。指示を受けたGemini Robotics 1.5は、
視覚と言語の理解能力を用いて、具体的なアクションを直接実行する。
743: 09/26(金)16:01 ID:oRCAy/C2(5/5)調 AAS
Gemini Robotics 1.5は自らの行動について思考することで、複雑なタスクを実現するだけでなく、その思考プロセスを人間に言葉で説明することもできる。
これにより、ロボットの意思決定の透明性が高まる。

従来の視覚・言語・行動モデルは、与えられた指示や計画について、ロボットの動きに直接的に変換するだけだった。Gemini Robotics 1.5では、単に指示を変換するだけでなく、
行動前に自ら思考することが可能。複数の手順や深い意味の理解が必要なタスクに対して、内的な推論と分析による思考プロセスを組み立て、実行する。

例えば「洗濯物を色分けして」という指示を与えられると、ロボットは異なるレベルで思考。「色分け」とは白い服は白いカゴへ、それ以外の色は黒いカゴへ入れる、
という目的を理解する。次に、「赤いセーターを拾い、黒いかごへ入れる」という具体的なステップも思考。さらに、「セーターを掴みやすくするために、一度手前に引き寄せる」など、
手順を実行するための細かな動作まで自分で考えることができる。

これにより、より長いタスクを、ロボットが確実に実行できるようなシンプルで短い単位へ分解することを自らの判断で行なえる。
これはモデルが未知のタスクや状況に対応する能力を高めることにも繋がるという。

また、これまでロボットは形状やサイズ、センサー等の違いから、異なるロボット同士で学習したスキルを共有することは難しかった。
Gemini Robotics 1.5では、異なるロボットで学習したスキルをそのまま他のロボットに移行することが可能になる。
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.037s