労働の完全自動化(人の楽園? or 失業地獄?)2 (778レス)
上下前次1-新
1: オーバーテクナナシー [] 2020/06/24(水)06:21 ID:dgLrGMyG(1)
労働を完全自動化する未来技術について
人を労働から解放する楽園になるのか?それとも?
労働完全自動化の技術の可能性と影響について議論しましょう
前スレ
労働の完全自動化(人の楽園? or 失業地獄?)
2chスレ:future
759: オーバーテクナナシー [sage] 09/28(日)10:08 ID:6tFNPRmt(1/9)
米中先行の人型ロボ開発、家庭・工場・被災地の現場を1体で担う「汎用型」目標に…競争加速で見直し
9/28(日) 5:00配信
内閣府は、社会を変えるような挑戦的な研究を支援する「ムーンショット型研究開発制度」で、家庭や工場、被災地など様々な現場で活躍できる汎用(はんよう)の人型ロボットの開発を
新たな目標に定める方針を固めた。2030年までに試作機を作り、基盤技術の獲得を目指す。米中をはじめ海外で人型ロボットの開発競争が加速する中、日本の研究開発を促進したい考えだ。
20年に始まった同制度は、国が挑戦的な目標を定めて研究を公募し、総額約4000億円の基金から最長10年間支援する。現在「台風や豪雨を制御」「100歳まで健康不安なく人生を楽しむ」
など10の目標があり、今回はこのうちの「人と共生するロボットを実現」の内容を見直す。人工知能(AI)の発展で、汎用の人型ロボットが現実味を帯びてきたことが背景にある。
これまでは人型に限定せず、介護や家事、災害対応などに使われるロボットの開発を個別に進めていた。
新たな目標として、これらの作業を1体で担える人型ロボットの開発を目指す。30年までに、人間の支援の下で一定数の作業に対応できる試作機を製造する。民間投資の呼び水とするほか、AIの研究を後押しする狙いもある。
50年までに、学習しながら自律的に判断し、人間と同等以上の身体能力を備えたロボットを目指す。今年度中に新たな研究代表者などを公募する予定だ。
現在普及している産業用などのロボットは、特定の用途のみに使われ、活動できる現場も限定的だ。一方、一般社会の建物や道具などは人間向けに作られているため、あらゆる現場で使うには人型が適している。
汎用の人型ロボットの開発は加速している。米国では、電気自動車大手のテスラが、工場や家庭などでの利用を想定した「オプティマス」を開発し、来年にも量産を始める予定だ。
中国も人型ロボットを米国との先端分野の覇権を争う重要分野と位置付け、将来の労働力不足も見据えて急速に技術力を高めている。
内閣府の担当者は「当初の想定より技術の進展が速く、より野心的な目標に見直す。日本の強みであるロボット技術を発展させたい」と話している。
760: オーバーテクナナシー [sage] 09/28(日)10:17 ID:6tFNPRmt(2/9)
GMO熊谷氏「ヒューマノイドは自動車産業を超える」家庭にも普及する? 熊谷氏がCEOのAIヒューマノイドと共同記者会見
2025年9月26日
GMOインターネットグループは2025年9月25日(木)に「GMO AI・ロボティクス大会議&表彰式2025」を開催した。イベント終了後には、同グループ代表の熊谷正寿氏による
プレスカンファレンス(記者会見)が行われ、ヒューマノイドに対する思いや、今後ヒューマノイドが社会にどのように浸透していくかについて語られた。
プレスカンファレンスには、AI・CEO「ヒューマノイド 熊谷正寿」も同席した。
AI・CEO「ヒューマノイド 熊谷正寿」は、日本で初めてAI・CEOをヒューマノイドロボットとして具現化したもの。ボディは「Unitree G1」で、顔にはディスプレイを搭載、熊谷正寿CEOの顔や表情を写している。
チャットボットを通じて対話を行うことで、事業における意思決定のさらなる高速化が可能とされる。これまでに3,500セッション以上、6,800回を超える対話を実施してきたという。
GMOインターネットグループは、意思決定のさらなる高速化が必要だと考え、2024年7月から「GMO Brain AIプロジェクト」を推進。その第1弾として、同年12月に社内向け独自AIツール
「AI 熊谷正寿」をパートナー(従業員)向けに提供開始した。「AI 熊谷正寿」は、熊谷氏の思考やフィロソフィー、そしてGMOインターネットグループのカルチャーを集約・言語化した
「GMOイズム」を学習した“バーチャル知的ナビゲーター”として位置付けられている。
今回のヒューマノイドは、そのプロジェクトをさらに一歩進めた形となる。
「GMO Brain AIプロジェクト」での「ヒューマノイド 熊谷正寿」の意義について問われた熊谷氏は、次のように語った。
定性的ですが、回答精度という点では、彼(ロボット)は今はまだ80%くらいです。しかし、私のことを毎日学習しています。人は1日8時間労働ですが、ロボットは24時間365日働くことができます。
私は1つの会議にしか出席できませんが、彼は10台のコピーを作れば10の会議に同時に出席できます。私が100の精度で答えられても、彼が80の精度でも10の会議に出席できるなら、
会社全体で見れば彼の方が生産性は高いとも言えます。
761: オーバーテクナナシー [sage] 09/28(日)10:18 ID:6tFNPRmt(3/9)
これが、私の考え方を移植したAIを物理的に搭載したAIヒューマノイドの可能性であり、社会的に意義のあることだと感じています。
今はまだ実験段階ですが、多くのアンケートやデータを取得し、定量的・定性的に彼の存在意義をレポート化して発信していきたい。AIロボティクスの社会実装に
役立てたいという思いで、このプロジェクトをスタートしました。」
ヒューマノイド事業のポテンシャルについて問われた熊谷氏は、次のように語った。
ヒューマノイド市場は、自動車産業を超える規模に近々成長する可能性が十分にあると考えています。テスラのイーロン・マスク氏は、2025年に自社工場でオプティマスを数千台導入し、
その後本格的な大量生産と外販を開始し、2027年までに年間50万台の生産を目指しているという報道もあります。中国政府もヒューマノイド開発支援に全力で取り組んでいます。
私自身も、ヒューマノイドが今後の産業革命の中心になると考えています。日本におけるヒューマノイド事業では、GMO AIR(GMO AI&ロボティクス商事)を中心的な企業に育てたい。
現在はまだ啓蒙活動の段階と捉えていますが、成長するヒューマノイド産業のトップランナーにしたいと思っています。
762: オーバーテクナナシー [sage] 09/28(日)10:19 ID:6tFNPRmt(4/9)
ヒューマノイドは産業利用と家庭利用のどちらが先に普及するかという問いに対し、熊谷氏は次のように述べた。
産業利用は作業がパターン化されているため、家庭利用に比べると簡単です。すでに工場で産業用ロボットが普及しているのは、作業がパターン化されているからです。
一方、家庭利用では代わりにやってほしい作業が家庭ごとに異なり、バラエティに富んでいてパターン化が難しい。例えば洗濯を例にとると、洗濯機の役割はシンプルですが、
洗濯物を畳む方法やアイロンのかけ方は人によって好みが違います。家庭用ロボットに求められるスキルの実現は難しいですが、実現は時間の問題です。人が思っているより早く、数年でできるようになるでしょう。
そう考えると、産業用やビジネス用途ではすぐにできることが増え、急速に普及していくと思います。
ただし、普及には価格も重要です。家庭に普及するためには、軽自動車程度の価格帯になる必要がありますが、それも2〜3年先には実現するのではないでしょうか。
今はまだ想像できないかもしれませんが、2〜3年後には家庭にヒューマノイドがいる、そんな時代が来る可能性があると考えています。
763: オーバーテクナナシー [sage] 09/28(日)10:20 ID:6tFNPRmt(5/9)
人の動作をリアルタイム転写するヒューマノイドロボットをEmplifAIが実装「人の即興性×ロボットの到達性」共同実証パートナー募集
2025年9月26日
株式会社EmplifAIは、操作者の身体動作や意図をリアルタイムにヒューマノイドロボットへ転写する遠隔・身体共有型テレプレゼンスの実装に成功したと発表した。
同技術は、ステージ演出・ライブ配信などの「人が乗り移った」ような体験や、高所・狭隘・被ばくリスク等を伴う現場での代替支援に発展し得ることを示している。あわせて、
PoC(概念実証)・実証実験の共同パートナー企業の募集を開始する。
自立させながらの身体制御は、既存の自律制御だけでは再現が難しく、現場適用のボトルネックだった。EmplifAIは、操作者視点の知覚と動作意図をロボットへ低遅延で写し取る
アプローチにより、「人の即興性×ロボットの到達性」を両立。初期検証では、腕・上体・歩行の協調などの基本動作で追従を確認している。
同技術の主な特徴は、低遅延・高追従性を実現し、操作者の上半身・手先の運動をロボットへリアルタイム反映することだ。汎用ロボット対応として、ヒューマノイド(例:Unitree G1等)を中心に、用途に応じて拡張可能となっている。
応用分野として、以下のケースが想定されている。
・エンターテインメント・ライブ演出:パフォーマーが「乗り移った」ロボットが舞台上で演技・所作を披露し、配信コンテンツの拡張が可能だ。
・教育・文化体験:熟練者の身体知を遠隔地へ「身体ごと」伝えるワークショップが実現できる。
・危険作業の代替支援:高所・狭隘・被ばく・有害物取扱い等の現場で、人の判断×ロボットの到達性を融合した作業が可能となる。
・イベント運営・接客:遠隔プレゼンスでの来場対応、案内、簡易作業などに活用できる。
同社は「この場面で使えるかも」「まずは軽く試したい」など、ラフな相談から歓迎するとして、共同実証パートナー企業の募集を開始した。
想定領域は、エンターテインメント・イベント、製造・物流、インフラ、研究、自治体などとしている。
764: オーバーテクナナシー [sage] 09/28(日)10:23 ID:6tFNPRmt(6/9)
Googleが「Geminiロボティクス」の最新動画4本を一挙公開 ヒューマノイドAIも驚異的に進化、VLAモデルの動画を徹底解説
2025年9月27日
Google DeepMindが「Gemini Robotics 1.5」の最新動画を2025年9月26日に一挙に4本公開し、驚異的な進化が話題になりはじめています(動画のYouTube設定で
音声トラックに「日本語」を指定することで、AIによる日本語翻訳で解説を聞くことができる)。
「Gemini Robotics」はヒューマノイドを含むロボット工学向けに設計されたGeminiを基盤としたAIモデルです。
「Gemini Robotics」の最大の特徴は、ロボットを直接制御することを目的に、視覚(Vision)・言語(Language)・行動(Action)を統合したVLA(Vision-Language-Action)モデルを追求し、
現実世界で汎用的に動作できる点です。VLAモデルは現在のAIロボティクス分野で最も注目されている最先端技術のひとつです。
「Gemini Robotics 1.5」は、高次元の思考・計画機能を持つ補助モデル「Gemini Robotics-ER 1.5」と連携して設計され、複雑なタスクやマルチステップの実行で、
単なる反応的な動作ではなく「先読み」「分割実行」「ツール利用」などが拡張されています。
では、各動画とポイントを見ていきましょう。
・Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
・Gemini Robotics 1.5: Using agentic capabilities
・Gemini Robotics 1.5: Learning across embodiments
・Gemini Robotics 1.5: Thinking while acting
冒頭の「Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks」は以降の3つの動画を包括的にまとめたものになっています。
時間のない人はまずはこれを見るとよいでしよう。じっくり理解したい人のために、この記事ではあえてラストに解説します。
Gemini Robotics 1.5: Using agentic capabilities
Gemini Robotics 1.5 が単に反応的に動くロボットではなく、ある種の自律的判断能力を持つ「AIエージェント」として振る舞えることを示しています。
765: オーバーテクナナシー [sage] 09/28(日)10:24 ID:6tFNPRmt(7/9)
動画では、ロボットが「エージェンティックAI(AIエージェント)の能力、エージェンティック(agentic)能力」を持つことにフォーカスしています。今までは単純に「命令」を受けて
「動作」するだけの行動だったものが、エージェンティックAIの進化によって、自律的に判断・計画・行動ができるようになる、という能力です。
エージェンティックAIによって、環境を観察し、目標を分割したり、優先度をつけたり、その場で戦略を変えたりしながら動作を決定する、その一連の様子が見て取れると思います。
もうひとつ重要なポイントとして、エージェンティックAIは必要なツール(例えば Google検索など)を呼び出したり、外部の情報にアクセスすることで、必要な知識をAIロボットが
補完しながら行動できる能力も示唆しています。この機能はロボティクスに限らず、ビジネス分野でも、最新のエージェンティックAIが、目的を遂行するために必要なソフトウェアや
APIをAIが自律的に活用する機能として注目されています。
また、動作を実行する際の思考プロセス(行動をステップごとに言語で表現する思考)をAIが生成している可能性もあります。「思考してから動く (think before acting)」能力を垣間見ることができます。
Gemini Robotics 1.5: Learning across embodiments
ロボットが把持や物体操作、持ち替える動作などの具体的なタスクを、複数のロボット構成であっても同一のモデルがで実行できる様子に着目するとよいでしょう。
この動画の「embodiment(具現体・身体構成)」とは、ロボットの形や関節やセンサー構成などを指す用語として使われています。従来、ひとつのロボットで学習した動作を別の形状のロボットに
そのまま適用するのは困難でした。例えばアーム型、双腕型、ヒューマノイドでは、基本構造はもちろん、関節の自由度、動力の特性等が異なるためです。しかし、次世代のロボット基盤モデルでは、
その違いをソフトウェアが吸収することを目指して研究が進められています。
766: オーバーテクナナシー [sage] 09/28(日)10:25 ID:6tFNPRmt(8/9)
この動画では、「Gemini Robotics 1.5」は「ロボットの種類や身体構成が異なっていても、学習した動作やスキルを別のロボット(embodiment)に転移(transfer)できる」能力の成果が示されています。
動画の中で、Google DeepMindは、アーム型ロボットの「ALOHA2」で学習したスキルを、双腕ロボット「Franka」やヒューマノイド「Apollo」にそのまま応用(転移)したデモを披露しています。
こうした能力は、ロボット学習における汎化性能を大きく高めます。従来のようにロボットのメーカーや機種が異なる度にAIの膨大な再学習が必要なくなれば、時間やコストを大幅に削減できる可能性があります。
Gemini Robotics 1.5: Thinking while acting
「thinking while acting」とは「思考しながら動く」ことで、タスクを実行中にも判断と制御をリアルタイムで更新し、次に行うべき最適な動作を絶えず思考しながら実行できるスキルを指しています。
従来は「ある計画を立てたらその通りに実行する」というのがプログラムにとってはセオリーでしたが、人はタスクの途中に障害物が現れたり、物の位置が変わったり、他の人が介入するなど、
予期しない環境変化を認識したとき、臨機応変に対応しようとします。身体性を持ったAIロボットにも同様に「thinking while acting」が重要です。
具体的には、タスク遂行中にも「思考ステップ:中間推論(intermediate reasoning)」を生成・更新しながら、次の動きを決定する様子を動画で確認することができます。
Google DeepMindのブログによれば、「思考 (thinking) を経てから動く (think before acting)」というスキルをさらに発展させた形として「思考しながら動き続ける」能力が重要視されています。
この動画では、途中で目標物が動いたり、障害物が現れたり、環境変化が起こっても、ロボットが思考を止めることなく、連続的に最適なタスクを再演算・更新しながら動作を修正しています。
767: オーバーテクナナシー [sage] 09/28(日)10:27 ID:6tFNPRmt(9/9)
Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks
「複雑なタスク」を解くために、ロボットが「計画 (planning)」「思考 (thinking)」「ツール使用 (tool use)」まで組み合わせて行動するなど、総合的な作業を達成できる様子を紹介したものです。
以降の3つ動画が詳細に解説していることを包括的にまとめたものでもあります。
他の3つ動画で示されているように、ロボットが単純な命令に応えるだけではなく、タスクのゴールまでのプロセスを分解して段階的なステップを生成し、そのステップにもとづいて行動し、
必要に応じて外部ツール(検索、データベース参照、情報取得など)を活用して補助を行う能力を達成する可能性が示されています。
例えば、「洗濯物を色別に仕分けする」「ある地域(サンフランシスコなど)のゴミ分別ルールを調べて適切に分類する」など、作業のタスクが複数の段階にわたっていても、
AIロボットが自律的に考えて実行していく可能性を示唆しています。
また、AIロボットが「リーズニング」を生成し、それをもとに行動を段階的に実行していく手法として「思考してから動く (thinking before acting)」ことも示されています。
例えば「AIロボットが実世界で何をすればいいか判断するために、ウェブ検索をかけてその地域のゴミの分別ルールを参照」することで、より詳細な情報を取得して行動の精度を上げたり、
改善するため活用するといったタスクに発展できる可能性があります。
ビジネス分野でも「AIエージェント」は単にユーザーの質問に回答するツールとしてだけでなく、「思考」「計画」「実行プロセス立案」「選択」「ツール呼び出し」「実行」「成果と評価」といった
一連の流れを自律的に行うことが期待されています。身体を持ったロボットにも自身が自律的に構成して制御できるスキルが求められていることを示した内容になっています。
768: オーバーテクナナシー [sage] 09/29(月)21:03 ID:XxZ5OA4I(1/11)
ヒューマノイド開発を支援する「NVIDIA Cosmos世界基盤モデル」とは・・ 世界モデルと世界基盤モデルの違いを解説
2025年9月29日
2025年9月25日に開催された「NVIDIA AI Day Tokyo」のセッションの中から、前回は人気の高いフィジカルAIをトピックとした講演「フィジカルAIで加速する
ヒューマノイドロボティクス NVIDIA Isaac GR00TとCosmosの紹介」の前半を紹介した。
今回はその講演の中盤で紹介された「NVIDIA Cosmos 世界基盤モデル」と、「世界モデル」について解説したい。
ヒューマノイドやロボットのAI学習にも膨大な学習データが必要になること、学習データを収集するにはテレオペレーション(ロボットの遠隔操作によるリアル環境でのデータ収集)が有効なこと、
しかし、その収集方法には現実的に時間やコスト面で限界があること、それを更に拡張するためにはシミュレーション環境によってデータ収集する「ドメインランダム化」「シミュレーションtoリアル」
が有効なことを解説した。しかし、そこにもまた限界がある。
その状況を俯瞰して見ると、次のようなデータピラミッドが形成されるというが、更に拡張するフェーズが「世界モデル」(世界を理解するモデル)の活用だ。世界モデルとは、物理法則や
空間特性などの現実世界の力学を理解する生成AIモデルのことで、テキストや画像、ビデオ、アクションなどの入力データを使用して動画を生成することができる。
感覚データから運動や力加減、空間的な関係などの力学を表現し、予測する方法を学ぶことで、現実世界の環境の物理的特性を理解するとされている。
大規模言語モデルがWEBにある膨大なデータから学習したように、それと同様にロボットの学習データとしてWEBにある膨大なデータを活用できないだろうか、というアプローチだ。
「世界モデルは世界の観測情報から世界の構造を学習し、入力に基づいて未来の状態を予測するモデル」、言い換えると「データドリブンで世界の原則を理解するようなモデル」だ。
実際に細かい物理法則は理解していないものの、野球のボールを投げたらどのような放物線を描くということを予測できるモデル」(加瀬氏)となっている。
769: オーバーテクナナシー [sage] 09/29(月)21:05 ID:XxZ5OA4I(2/11)
「世界モデル」を使って、シミュレーション上のアイテムやマテリアル、環境などのデータを拡張する取り組みが行われている。
この取り組みは自動運転の学習にも有効で、自転車や子どもが飛び出す、火災が発生するなど、実際のデータでは実現させることが困難なケースを世界モデルなら
生成することができ、データのスケールアップが可能だと考えられる。
ロボットが環境を理解・予測するために内部に構築するのが「世界モデル」で、環境のダイナミクス(状態がどう遷移するか)や観測の生成過程を学習したもの。そしてこの「世界モデル」を
取り込み、多くの環境・センサー・行動データを大規模に学習した汎用モデルを「世界基盤モデル」と呼ぶ。
知識・推論・感覚データを統合し、原則としてどんなロボットにも転移可能な「共通の世界理解」を目指している。
世界モデル
ロボットが環境を予測するための内部モデル
世界基盤モデル
大規模なマルチモーダルデータで学習し、「多くのロボットが共通で利用できる」汎用モデル
NVIDIAが世界基盤モデルとして提供しているのが「Cosmos」だ。
世界モデルを学習させるために、2000万時間分のデータを取得。1万基の「NVIDIA H100 GPU」で2000時間以上のトレーニングを積んで学習させた。
世界基盤モデル「Cosmos」はユーザーが実際に利用しやすいように、3つのモデルで分けて、オープンソースとして提供されている。3つのモデルとは、
マルチモーダル入力から未来の仮想世界の状態を予測する「Cosmos Predict」、現実世界と3D入力によって条件付けられた仮想世界を生成する「Cosmos Transfer」、
物理AIの世界状態理解のための思考連鎖推論「Cosmos Reason」だ。
Cosmos-Predict
マルチモーダル入力から最大30秒の連続ビデオを生成する世界状態予測モデル。
Cosmos-Transfer
シミュレーションと実世界の間での知覚的ギャップを橋渡しするための条件付き世界生成モデル。
Cosmos-Reason
ビデオフレームに対する推論を行い、物理的常識を理解するモデル。
770: オーバーテクナナシー [sage] 09/29(月)21:06 ID:XxZ5OA4I(3/11)
「Cosmos Predict」はテキストと動画や静止画、アクションなどのコンディションから最大30秒間の動画を生成することができる。
加瀬氏によれば「Cosmos Predictは演算の負荷が高いモデルのため、相応のGPUの性能が必要になる」という。5秒間の映像を生成するために必要な性能と所要時間を示した表を提示した。
「Cosmos Transfer」は様々な入力から映像の背景を生成して変更できる。例えば、OmniverseとIsaac laboで使う場合、リアリスティックな映像を作るには通常、時間とコストがかかってしまうが、
「Cosmos Transfer」を活用すれば、背景や環境、小物のアイテムまで作り込む必要がなく、簡単なモデルだけを作り、それ以降は「Cosmos Transfer」で生成できるメリットがある。
「Cosmos Reason」は名前の通りリーズニングするモデル。
ロボットでのユースケースとして「キャプショニング」や「アクションの計画」などを紹介した。
また、使用する学習データが学習に適したものかどうか(学習するのには不適切なデータかどうか)を判断するのにも利用できるという。
加瀬氏は世界モデルを解説した上で、NVIDIAのヒューマノイドの研究開発プロジェクト「Isaac GR00T」(アイザック・ジーアールゼロゼロティー、通称グルート)を紹介した。
機会があれば、更に「Isaac GR00T」についてもレポートしていきたい。
771: オーバーテクナナシー [sage] 09/29(月)21:08 ID:XxZ5OA4I(4/11)
菱熱工業がAI活用の施設管理システム「天才施設管理者」の提供開始
2025年9月29日
菱熱工業株式会社は、AIプラットフォーム「天才施設管理者」を開発し、2025年9月10日(水)より本格的なサービス提供を開始したと発表した。
「天才施設管理者」は、製造や店舗などの現場施設データを集約・可視化し、経営層がタイムリーに現場状況を把握できるよう支援するAIプラットフォームだ。食品工場、外食店舗、
シネマコンプレックスなどでの空調設備管理を中心に活用可能で、今後は幅広い業種への展開を計画している。
同社は3年間で100社の導入を目指すとしている。2025年8月にテスト運用を開始し、約1か月の試用期間を経て本格サービスの提供に至った。
「天才施設管理者」の主な機能は以下の3つに分かれる。
1.現場状況の可視化とトラブル対応機能
現場データを一元管理し、機器仕様や部品情報を検索可能にする。エラー原因の推定なども行い、経営層から瞬時に現場状況を把握できる仕組みを提供する。
2.経営判断・投資計画の支援機能
更新工事の履歴や予定を可視化し、固定資産台帳などと連携することで、データに基づく合理的な投資判断をサポートする。
3.技術継承と知識の標準化機能
ベテラン社員のノウハウをAIに蓄積し、若手社員への技術継承を促進する。これにより属人化を防ぎ、知識を標準化することが可能になる。
開発の背景には、同社が長年直面してきた「情報の断絶」という課題がある。経済産業省「2024年版ものづくり白書」によれば、部門間で「連携できている」と答えた企業はわずか34.6%にとどまっている。
こうした状況を踏まえ、同社は現場と経営をつなぐAIプラットフォームの必要性を感じ、「天才施設管理者」の開発に至った。
同サービスは、設備管理に関する知見とRAG(検索拡張生成)技術を組み合わせ、固定資産台帳や点検報告書、HACCP関連文書などの重要データを活用可能にしている。
システムベンダーとは異なる”設備の現場に根差したAI支援”を実現するとしている。
772: オーバーテクナナシー [sage] 09/29(月)21:08 ID:XxZ5OA4I(5/11)
導入プロセスは4段階で構成される。課題ヒアリング・方向性決定から始まり、学習データ収集・投入、AI構築(約2週間)・試用(1週間)を経て、
運用開始後のフィードバック・改善まで一貫してサポートする。
料金体系は、初期制作費が20万円から。月額利用料は1アカウント4,000円(20アカウントまで)、21アカウント目以降は1アカウント3,000円となっている。年間契約が基本となる。
将来的には、故障報告の自動受付や協力業者への自動発注、経営判断の自動化など、AIによる「エージェント化」を進めていく予定だ。労働力不足やリスクマネジメントなどの
経営課題解決に貢献するとともに、経営層から現場担当者まで誰もが使いやすく、幅広く活用できる意思決定支援ツールとして展開していくとしている。
773: オーバーテクナナシー [sage] 09/29(月)21:09 ID:XxZ5OA4I(6/11)
ソフトバンク×理研 量子コンピュータとAI計算基盤の相互接続を10月より開始
2025年9月29日
ソフトバンク株式会社(以下、ソフトバンク)と国立研究開発法人理化学研究所(以下、理研)は、学術情報ネットワーク「SINET(サイネット)」への接続サービスを活用して、
ソフトバンクのAI計算基盤と理研が運用する量子コンピュータの相互接続を、2025年10月に開始すると発表した。
※SINET(Science Information NETwork)とは、日本国内の大学や研究機関などの学術情報基盤として、国立情報学研究所が運用する情報通信ネットワークのことを指す。
この取り組みは、経済産業省の「ポスト5G情報通信システム基盤強化研究開発事業」として、NEDOが公募した「計算可能領域の開拓のための量子・スパコン連携プラットフォームの
研究開発」に、ソフトバンクと理研が提案して採択された「JHPC-quantum」プロジェクトの一環として推進される。
本プロジェクトでは、これまで理研の量子コンピュータと、東京大学および大阪大学が運用するスーパーコンピュータとの接続・連携を進めてきた。今回新たにソフトバンクの
AIデータセンター内に構築したAI計算基盤との接続を、学術情報ネットワーク「SINET」への接続サービスを活用して開始する。
これにより、量子コンピュータとスーパーコンピュータとの連携環境がさらに拡大し、事業化を見据えた研究開発を加速するとともに、産学連携による
ハイブリッド計算環境を活用した新たな研究や応用検証が本格的に始動する。
774: オーバーテクナナシー [sage] 09/29(月)21:11 ID:XxZ5OA4I(7/11)
理研においては、2025年2月にイオントラップ型「黎明/REIMEI」と、6月には超伝導型「ibm_kobe」という異なる方式の商用量子コンピュータの導入が完了し、
量子コンピュータとスーパーコンピュータの連携を実現するソフトウエア環境の整備を進めている。
量子コンピュータとスーパーコンピュータを低遅延の高速ネットワークで密に結合し、連携利用を可能にするプラットフォームを構築するとともに、量子・HPC
連携アプリケーションを開発し、その有効性について検証する。
今後ソフトバンクでは、本プロジェクトで採択するテストユーザーの活用ニーズに対応するため、SLA(品質保証制度)やセキュリティ、運用標準などの整備を進め、
事業化を見据えた検証を行っていくとしている。
GMOの「AI・ロボティクス」イベントで石破総理とNVIDIA CEOがビデオメッセージを寄せる
2025年9月29日
GMOインターネットグループは2025年9月25日、都内で「GMO AI・ロボティクス大会議&表彰式 2025」を開催した。AIやロボティクスに関する、産官学のキーマン達が
集結して多数の講演が行われた。総合司会はフリーアナウンサーの加藤綾子氏がつとめた。
今年は石破首相やNVIDIAの創業者/CEO ジェンスン・フアン氏がビデオメッセージを寄せた。
石破首相は「GMO AIロボティクス大会議&表彰式2025」の開催を祝し、AIとロボティクスが産業、物流、医療、介護、災害対応など幅広い分野で社会を大きく変革する力を持ち、
特に少子高齢化の日本にとって重要であると強調した。
政府はAI法に基づき「人工知戦略本部」を設立し、イノベーション促進とリスク対応を両立しつつ、世界で最もAIを活用しやすい国を目指す方針。
本年度中には社会実装と競争力強化に向けた戦略を策定予定で、日本のロボティクス技術と文化的背景を活かし、未来を切り開く可能性に言及した。
NVIDIA 創業者/CEOのジェンスン・フアン氏は、次世代のAI・ロボティクス向けて重要なのはデータセンター「AIファクトリー」であり、GMOはそのサービス提供に既に着手していることを紹介した。
775: オーバーテクナナシー [sage] 09/29(月)21:12 ID:XxZ5OA4I(8/11)
AIは産業や科学を根本から変革し、各国・企業がその活用を進める歴史的転換期を迎えています。その中心となるのが新しいデータセンター「AIファクトリー」であり、
GMOはすでに日本企業向けに稼働を開始しています。
次世代基盤「Blackwell(B300)」は、大規模推論や計画、リーズニングに対応し、リアルタイム処理を可能にする性能を備え、科学・産業・ロボティクス分野の国家的ニーズを
支える存在となります。日本が強みを持つメカトロニクスと融合すれば、ロボットはAIファクトリーで訓練され、認識・判断・行動を備えた自律的存在として展開されます。
GMOとの協業は日本の基盤インフラ拡張に寄与し、新時代の変革を牽引するでしょう。
(日本語で)こんにちは。
ロボティクスとAIの未来を形作るイノベーター、エンジニア、そして発明家、夢を追うすべての皆さんとお話ができることを光栄に思います。今は歴史的な時です。
新しいコンピューティングモデルが登場しました。AIはあらゆる産業と科学分野を変革するでしょう。すべての国がAIを構築し、すべての企業がAIを活用するでしょう。
この変化の中心にあるのは、新しいタイプのデータセンター「AIファクトリー」です。
GMOはすでにプラットフォームをオンライン化し、日本企業も利用し始めています。これらのシステムは実際のワークロードを実行し、確かな成果を生み出しています。
そして今、「B300」によってGMOは次の未来に向けて準備を進めています。
Blackwellは、当社の最先端プラットフォームです。大規模な推論、計画、リーズニング、トークン生成を行うモデル向けに構築されています。大規模なリアルタイム
推論をサポートするために必要なパフォーマンスと効率性を提供します。
776: オーバーテクナナシー [sage] 09/29(月)21:13 ID:XxZ5OA4I(9/11)
Blackwellを搭載したAIファクトリーは、科学、産業、そしてロボティクスにおける国家のニーズに応え、あらゆる国のデジタルインフラの一部となるでしょう。
日本は長年にわたり、メガトロニクスと精密システムにおいて世界をリードしてきました。
AIの活用により「自動化」を超える「自律化」を実現する機会が生まれます。ロボットはシミュレーションで改良されたAIファクトリーで訓練され、認識、判断、
行動が可能なエッジAIを搭載して展開されます。
熊谷さん、あなたのビジョンは明確ですね。
日本の基盤インフラを構築されています。この新しい時代に、GMOと提携してプラットフォームの拡張と日本の変革に貢献できることを誇りに思います。
(日本語で)ありがとうございます。
AI警備システムの有効性を検証する実証実験 三菱地所・下地島空港施設・下地島エアポートマネジメント
2025年9月29日
三菱地所株式会社、下地島空港施設株式会社、下地島エアポートマネジメント株式会社の3社は、セコムを監修者として、沖縄県宮古島市所在の下地島空港において、
航空保安・空港警備の高度化および効率化を目的に、AIカメラを用いた警備体制の有効性を検証する実証実験を実施したと発表した。
空港内の制限区域(駐機場周辺)を警備対象に含めたAIカメラによる空港警備の本格的な実証は日本で初となる。コロナ禍明け以降、海外を中心とした旅客便の復便と
新規増便を背景に、各空港は受入体制の拡充を求められている。空港警備についても更なる強化が必要だ。
下地島空港では、2025年上半期(1〜6月)の乗降客数が開港以来初めて20万人を超えるなど増加しており、関係する事業者間で連携して体制強化に取り組んでいる。
しかし、警備の領域においても業務負荷や人手不足を起因とする人材の確保、年々厳しくなる気候を起因とする作業負担など課題を抱えていた。
これらを解決し既存便・新規便を適切に受け入れるには警備の高度化・効率化が必要である。
777: オーバーテクナナシー [] 09/29(月)21:14 ID:XxZ5OA4I(10/11)
3社はこうした警備上の課題に対してDXを通じ解決すべく、セコムを監修者としてAI監視カメラを活用した空港警備の実証実験を行い、技術面・運用面の課題の抽出およびリスクアセスメントを実施した。
実証実験は2025年6月16日(日)から20日(木)まで、下地島空港の国内線駐機スポット、旅客動線および旅客ターミナルで実施された。実証対象は以下の3つである。
1.機側監視:国内線の駐機場における、機体駐機中および駐機のない時間帯の侵入等監視
2.搭乗・降機動線監視:搭乗ゲートから機体側、または機体側から預入手荷物受渡場まで、徒歩移動する旅客が指定通路を逸脱・逆流しないで移動するか等の監視
3.投げ込み監視:保安検査を通過した旅客が危険物等を入手しないように不審な行動等の監視
旅客ターミナル一般エリアから駐機場までの警備ポストの一部をAIカメラによる監視に切り替えた結果、AIの支援機能が警備員負担の軽減やヒューマンエラーの予防につながる等、DXによる警備力の向上を確認した。
空港警備でのAIカメラ活用により、下地島空港では最大約4割の警備リソースの効率化が期待できる。3社は国土交通省航空局が推進する空港業務DXに寄与すべく、今後の実運用に向けた関係者協議を進めていく。
実証実験では、セーフィーのクラウドカメラと、マクニカのクラウド環境上で提供されるicetana社のAI技術を利用した。監視カメラの導入により空港エリア全体の監視が可能になり、
加えてAIの支援機能がマルチタスクを担う警備員負担を軽減、ヒューマンエラーを予防し、警備力が更に向上したことが分かった。
実証した警備システムを前提に警備主体が異なる旅客ターミナル・空港施設・航空会社それぞれの警備を一体化することで、空港全体の警備効率化の可能性を確認できた(最大約4割程度)。
3社は旅客便の更なる乗り入れを通じ下地島空港および宮古島エリアの活性化を目指すとともに、AIなどのデジタル技術を活用することで社会・地域の課題解決に貢献していく方針である。
778: オーバーテクナナシー [sage] 09/29(月)21:17 ID:XxZ5OA4I(11/11)
2枚幅GPUカードを搭載できるコンパクトボックス型コントローラー専用拡張ボックス
エッジコンピューティング
NECプラットフォームズは、コンパクトボックス型コントローラー専用の「拡張ボックス 2Slotモデル」の販売を開始した。組み込み向けの2枚幅GPUカードを搭載可能で、
製造業の外観検査などにおけるエッジAI処理を省スペースで可能にする。
2025年09月26日 14時00分 公開
NECプラットフォームズは2025年9月8日、コンパクトボックス型コントローラー向けにPCI Expressボードを2スロット備えた「拡張ボックス 2Slotモデル」の販売を開始したと発表した。
Intel第13世代CPU(Raptor Lake-S Embedded)を採用したコンパクトボックス型コントローラーの「Intel製プロセッサー搭載モデル」のオプションとして提供する。最小構成となるIntel Celeron G6900TE、
メモリ8GB、ストレージ120GBと組み合わせた場合の価格(税別)は46万7100円。年間1000台の販売を目標に掲げる。
本製品は内蔵電源を採用し、消費電力や放熱の制約がある現場でも安定稼働を可能にした。300W電源により24時間運用が可能で、GPUを活用した高負荷処理を安定して実行できる。
組み込み向けの2枚幅GPUカードを搭載でき、製造業の外観検査や医療機関での高解像度画像処理、研究機関でのAI(人工知能)推論や学習などに対応する。
対応GPUカードは、NVIDIA RTX 2000 AdaとRTX 4000 SFF Adaで、動作検証済み。筐体サイズは238.7mm×240mm×130mmで、1枚幅または2枚幅のハーフレングスGPUに対応し、
滑らかな映像表現や高精度な処理が可能となる。
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.008s