[過去ログ]
労働の完全自動化(人の楽園? or 失業地獄?)2 (778レス)
労働の完全自動化(人の楽園? or 失業地獄?)2 http://rio2016.5ch.net/test/read.cgi/future/1592947307/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
1: オーバーテクナナシー [] 2020/06/24(水) 06:21:47.81 ID:dgLrGMyG 労働を完全自動化する未来技術について 人を労働から解放する楽園になるのか?それとも? 労働完全自動化の技術の可能性と影響について議論しましょう 前スレ 労働の完全自動化(人の楽園? or 失業地獄?) https://rio2016.5ch.net/test/read.cgi/future/1470276409/ http://rio2016.5ch.net/test/read.cgi/future/1592947307/1
749: オーバーテクナナシー [sage] 2025/09/27(土) 09:40:25.10 ID:dKp0quWz これまでのディスプレイを通じた体験から脱却し、バーチャルツインで再現されたリアルな世界により深く没入できる「Sense Computing」では、Appleの空間コンピューティングデバイス 「Apple Vision Pro」と連携した没入型体験が可能となる。 「これらの要素を全て組み合わせた3D UNIV+RSESが、これからの航空機の開発/設計/製造の在り方を根本から変革する。膨大なオペレーショナルデータから顧客の知識と ノウハウを学習し、GenXpを提供できるようにすることを目指す。これは、われわれの役割が単なるソフトウェア提供者から、顧客の知的財産を保護する守護者へと変わることを意味する」(ジグラー氏) 講演では、3D UNIV+RSES(特にAIやバーチャルツイン)がもたらす航空機開発の変革について、設計、解析、製造、運用/保守といったプロセスごとに、具体的なイメージが示された。 まず設計段階では、航空機を単なる製品ではなく複雑なシステムとして捉え、システムアーキテクチャの設計をAIが支援する。電子、電気、ソフトウェアといった複数分野の設計が自動化され、 将来的には上位レベルの要求仕様から、ワイヤハーネスやプリント基板(PCB)、さらにはそれらを制御するソフトウェアに至るまで自動生成できるようになることを目指している。 また、設計の各段階は完全なトレーサビリティーを保ちながら進められ、関係者が一貫したデータに基づいて意思決定できるようになる。 航空機を構成する機械部品の設計では、ジェネレーティブデザインが活躍する。部品が配置される空間や境界条件、負荷条件、製造方法(鍛造、鋳造、フライス加工、3Dプリントなど)を 入力するだけで、AIが複数の設計案を自動的に生成する。設計者は膨大な設計案の中から最適な形状を選択すればよく、大幅な設計作業の効率化が図られるようになる。 認証とテストに向けては、解析技術がその支援となる。従来の物理試験をシミュレーションに置き換え、再現性の高い高度なシミュレーションを通じて、安全性や規制適合性の証明に つなげる。また、「AIはサロゲートモデルの開発を加速し、大規模GPUを活用することで、膨大なシミュレーションを高速に実行できるようになる。これにより、実機を使ったテストの 回数を減らすことができ、コスト削減と開発期間短縮を実現可能にする」(ジグラー氏)という。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/749
750: オーバーテクナナシー [sage] 2025/09/27(土) 09:41:03.40 ID:dKp0quWz 製造段階では、AIアシスタントのVirtual Companionsが現場作業者を支援する。組み立て手順や作業指示をリアルタイムで提供するだけでなく、品質管理を自動化する 機能も担う。実際に、BoeingやDassault Aviationの工場では、この仕組みを活用して現場の品質検査が自動化されており、「最初から正しく作る」から「常に正しく作る」へのシフトが進んでいるとのことだ。 運用/保守の段階では、飛行データやメンテナンスデータがバーチャルツインに統合され、予知保全が実現される。実際の事例として、Dassault Aviationがフランス空軍と 取り組んだラファール戦闘機のケースでは、稼働率が10%向上したという成果が示された。「AIはこの段階でも重要な役割を果たし、大規模データ解析を通じて予知保全モデルを 進化させ、航空機の運用効率と安全性をさらに高めていく」(ジグラー氏)。 さらに、Apple Vision Proを活用したSense Computingについては、「ダッシュボードの表示、バーチャルコンパニオンによる支援、航空機の組み立てに関するガイダンスの 表示などが、リアルな没入空間の中で体験できるようになる」と、ジグラー氏はディスプレイ越しの体験からの脱却をあらためて強調した。 このように、ダッソー・システムズは、3D UNIV+RSESの提供を通じて、AI(GenXp)が設計から製造、運用/保守までをつなぎ、Virtual Companionsが現場作業を支援し、 Sense Computingがバーチャルツインを完全な没入空間へと変える世界の実現を目指している。 (取材協力:ダッソー・システムズ) http://rio2016.5ch.net/test/read.cgi/future/1592947307/750
751: オーバーテクナナシー [sage] 2025/09/27(土) 09:49:57.13 ID:dKp0quWz 近未来の「おつかい」サービスに、世界が注目!トヨタが公道に放つ自律搬送ロボット「cocomo」。ウーブンシティで実証実験をスタート 2025.09.26 16:50 トヨタ自動車が次世代技術の実証都市として建設してきた「ウーブンシティ」では、自動運転や自律走行ロボット、電動小型モビリティなどの新技術が「人が生活するテストコース」の 中で実証実験される。この街では、多くのインベンター(発明家)が様々な社会的な取り組みに挑むことになるが、“モノを運ぶ”物流分野で注目されているのが、 トヨタ自動車東日本が開発に取り組む、自律搬送ロボット「cocomo(ココモ)」だ。 「cocomo(ココモ)」は、単独で走行が可能な自律走行ロボット。 人の手を介することなく、衛星測位システムや障害物センサーを活用することで、指定した目的地まで安全に走行でき、ユニット内には買い物かごをまるまる1個入れられるスペースが 設けられているなど、買い物支援など“モノ”を運ぶ分野での実用化が期待される次世代モビリティになる。 ―― 自律搬送ロボット「cocomo(ココモ)」。宮城県産業技術総合センターなどと連携して機体構造の見直しや材料置換、トポロジー最適化(材料配置)や金属3Dプリンタ活用による機体の 軽量化を進め、運用効率の向上を図る。この技術を東北地域のものづくりにも活用してもらうことで、地域に貢献していくとのこと。 ―― 「cocomo」の内部には買い物カゴがまるまる1個入るスペースがあり、ここにスーパーなどで購入した商品を積み込むことができる。 もともとは、東日本大震災の被害地で、人や物の移動の課題解決を目指す「東北モビリティ・プロジェクト」から生まれたロボットであり、すでに宮城県女川町や愛知県みよし市で 実証実験は実施済み。この未来都市には、さらなる進化改良を目指して持ち込まれる。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/751
752: オーバーテクナナシー [sage] 2025/09/27(土) 09:50:25.22 ID:dKp0quWz ―― 人工衛星の電波(GPS)が届きにくい場所や目印がない広い場所など「cocomo」のレーザー計測が難しい環境でもスムーズに走行させるため、小型ロボットへの搭載に 最適化したLiDARとRTKなど、さまざまなセンサーを融合した自律走行システムの開発に取り組むという。 ウーブンシティでは、通信が途切れた際に安全な場所に自動移動する機能などの実証が行われるほか、GPSが届きにくい場所や目印がない環境でもスムーズに走行できるよう、 小型ロボットに最適化したLiDARやRTKといった、さまざまなセンサーを融合したシステムの開発が進められる予定。 ―― Toyota Woven City内の道路や横断歩道を使い、「cocomo」との通信が遮断された時に自動的に安全な場所に移動し、通行の妨げにならないようにする機能などの実証実験が行われる。 すでに7月からウーブンシティ近隣の公道でも立証実験が実施されており、実際の公道を走行させることで得られる、各種データの蓄積・技術を習熟することで、実用化のステップも大きく進むことになる。 ―― ウーブンシティでは、自由に安心して楽しめる電動小型三輪モビリティによるシェアサービスも実証される。モノはもちろん、人の移動の可能性も模索されることになる。 ―― タグボートのようにクルマを導く、自律走行ロボット(Guide Mobi)によるシェアカーの自動搬送サービスも実証予定。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/752
753: オーバーテクナナシー [sage] 2025/09/27(土) 14:01:31.63 ID:dKp0quWz ホースの自動挿入を高精度化...戸田建設、爆薬装填ロボを開発 9/27(土) 13:10配信 戸田建設は山岳トンネル工事向けに、爆薬装填ロボット「To―RIGGER(トリガー)」を開発した。コンピュータージャンボとAI(人工知能)ロボットアームとの連携により、 装薬孔への爆薬装填ホースの挿入を高精度化した。模擬岩盤を用いた検証実験で有効性を確認済み。今後、無線発破システムなどと連携させ、発破作業の完全自動化を目指す。 UP設計コンサルタント(大阪市港区)、HCI(大阪府泉大津市)、虎乃門建設機械(東京都渋谷区)の協力を得て開発した。コンピュータージャンボと戸田建設が開発した 爆薬装填ホース自動挿入装置で構成する。コンピュータージャンボの制御によりブーム(機体の腕部)が自動で移動し、先端の受け架台を装薬孔の軸方向に対し 平行となるよう角度を調整して孔口の位置に合わせる。 さらに受け架台の先端に搭載した爆薬装填ホース自動挿入装置がAIロボットアームを使って装薬孔の位置を正確に検知し、ホースを高精度に自動挿入し爆薬を装填する。 これにより、爆薬装填作業の遠隔化や将来的な自動化が可能となるほか、作業員の切羽への立ち入り作業がなくなり、安全性を大幅に向上できる。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/753
754: オーバーテクナナシー [sage] 2025/09/27(土) 14:09:12.88 ID:dKp0quWz NVIDIAが語るフィジカルAIで加速するヒューマノイド開発の最前線「NVIDIA AI Day Tokyo」レポート ドメインランダム化とシム2リアル 2025年9月26日 NVIDIAは2025年9月24日と25日に、東京ミッドタウンでイベント「NVIDIA AI Day Tokyo」を開催し、25日には招待制のセミナーが実施された。 「NVIDIA AI Day Tokyo」は、すでに開催されたホーチミンに続き、東京、そして今後予定されているシドニーやソウルと並ぶ、グローバルイベントのひとつに位置づけられている。 25日のセッションでは、NVIDIAの担当者やパートナー企業が講師として登壇し、GPU、クラウドサービス、エッジAI、データセンターなどの分野で具体的かつ実践的な活用方法や 事例を紹介した。主要トピックは「エージェント型AI」「フィジカルAI」「AIファクトリー/AIインフラ」「ハイパフォーマンスコンピューティング(HPC)/量子コンピューティング」。 特に「フィジカルAI」については人気が高く、満席になるセッションが多かった。 今回の記事ではフィジカルAIのトピックからセッション「フィジカルAIで加速するヒューマノイドロボティクス NVIDIA Isaac GR00TとCosmosの紹介」の前半をベースに、 NVIDIAが提供しているロボティクス向け「フィジカルAI」の概要などを解説していきたい。 加瀬氏は、「フィジカルAI」について、大規模言語モデル(LLM)を使ってロボットを動かすイメージから紹介した。 例えば「トースターからトーストを取り出し、右側の白い皿に置いて」というテキストコマンドを入力すると、ロボットはカメラ画像などから得た認識情報を加味し、 アクショントークンを生成。関節を自動制御し、指示どおりに動作する。 従来の産業用ロボットは、詳細なプログラミングによる「モデル化手法」で高精度な動作を実現してきた。しかし、設計やティーチングには多大な手間と時間がかかり、想定外の状況への対応は難しい。 一方、近年注目を集めている「フィジカルAI」は経験を学習して動作する。いわゆる強化学習(多くの経験パターンから学ぶ)をもとにしていて、数学的に設計するのが 難しいタスクにも対応することができる、従来のコンピュータよりも、人に近い学習方法とタスク対応が特徴になる。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/754
755: オーバーテクナナシー [sage] 2025/09/27(土) 14:10:27.76 ID:dKp0quWz 現場では、「モデル化手法」と「フィジカルAI」を排他的に扱うのではなく、高精度や高速性が求められるタスクには「モデル化手法」を、汎化的で幅広い作業には 「フィジカルAI」を導入するなど、使い分けが重要になる。その意味で、人型ロボットという形状はフィジカルAIの適用先として合理的だ(もちろん言葉で言うほど簡単なことではないからこそ、 チャレンジングであり面白い)。 LLMがネットなどの膨大なデータから学習してスキルを向上させたように、フィジカルAIもまた膨大な学習データ、アクションデータが必要になり、それをどうやって収集するかが課題だ。 そこで一般的にまず行われるのがテレオペレーション(遠隔操作)によるデータ収集だ。人が遠隔操作でロボットを操縦することでアクションデータを収集していく。 ただし、それだけでは汎化性の実現は不十分だ。例えばキッチンで皿を並べる場合、人は環境や食器が変わっても柔軟に対応できるが、AIにすべてのバリエーションを学習させるのは 現実的ではない。膨大な環境や物品を実際に用意して体験データを収集するには時間とコストが障壁となる。 この課題を解決するのがシミュレーションの活用「ドメインランダム化」だ。可能な限り多様な仮想環境で学習させ、リアル環境に応用することで汎化性を高める。もちろん、シミュレーションと 実環境は完全には一致しないため、実機にデプロイしてからのフィードバック調整(シム2リアル)やファインチューニングが必要となる。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/755
756: オーバーテクナナシー [sage] 2025/09/27(土) 14:12:11.28 ID:dKp0quWz シミュレーションでできる限り多くのパターンを学ぶ点では、同時に大量の数のロボットを仮想環境で動かすことによって、膨大なデータを収集し、学習していく手法もとられる。 下の画像は「Isaac Sim / Lab」で4000台のロボットがアクションデータを収集して学習のために利用する例だ。 「Isaac Lab」(ラボ)は、NVIDIAのロボティクスシミュレーションプラットフォーム「Isaac Sim」が提供するシミュレーション機能を活用し、多くのロボット(マニピュレーター、 四足歩行ロボット、ヒューマノイドなど)向けの学習環境とツールを提供している。 ファインチューニングとは、膨大なデータで事前学習した汎用的なAIモデルを、特定のタスクや環境に合わせて少量のデータを使って再学習して調整する技術。 これにより、ロボットの精度や効率、パフォーマンスを向上させることができる。 これらによって、現実世界のテレオペレーションで得たデータと組み合わせて、精度と汎化性を高める学習環境が整う。 LLMを中心とした生成AIを使ったことがある人は体感していると思うが、生成AIはテキストから画像を創ることができる。例えば、シミュレーションのデータとして活用するための アイテムの生成には従来とても時間がかかる作業だったが、生成AIを活用すると瞬時に様々なパターンのアイテムや環境を生成することができる。この技術もシミュレーション環境の構築に活かされている。 汎化性を一層高める技術として「世界基盤モデル(World Foundation Model)」が導入されつつある。加瀬氏のセッションでは、その代表例として「Cosmos」が紹介された。詳細は今後さらに掘り下げたい。 世界一のAI企業、NVIDIAはヒューマノイド向けAIやロボットの開発基盤「NVIDIA Isaac GR00T」の提供を2025年から開始しました。 NVIDIAが提供するフィジカルAI開発のためのプラットフォーム「NVIDIA Omniverse」や、ロボティクス向けの「NVIDIA Isaac Sim」などによって、ヒューマノイドロボット開発の効率が 格段に向上したと言われています。世界的に知られるロボット開発企業も既に使い始めています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/756
757: オーバーテクナナシー [sage] 2025/09/27(土) 14:13:03.67 ID:dKp0quWz 警備ロボット「SQ-2」に人物検知機能を搭載し、正式リリース SEQSENSE 2025年9月26日 SEQSENSE株式会社は、警備ロボット「SQ-2(エスキューツー)」に「人物検知機能」を搭載し、2025年9月22日(月)より警備ロボットサービスの一部として正式リリースした。 独自の技術を活用した本機能は、警戒エリアへの侵入者や残留者を検知し、警備員にリアルタイムで通知することで、警備レベルの向上と警戒監視の効率化を実現する。 本機能は、ロボットが稼働中に、指定されたエリア・時間帯で人物を検知すると、操作監視用パソコンに通知を出す。これにより、閉館後の施設内における侵入者など不審人物の早期発見と迅速な対応が可能になる。 これまで一部サイトで試験的に導入していたが、今回、警備ロボットサービスの一部として正式にリリースに至った。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/757
758: オーバーテクナナシー [sage] 2025/09/27(土) 14:17:17.23 ID:dKp0quWz 人物検知機能は、SEQSENSEが提供する警備ロボットサービスの標準機能として利用できる。新たな機器設置やオプション料金は不要となっている。 3D LiDARを搭載し、詳細な3次元マッピングや動体検知、環境変化の検出が可能なロボット。立哨、巡回、来館者対応など警備業務の代替により、 施設の管理コスト削減に寄与する。また、独自の検知機能などの活用で警備レベル向上を実現している。 SEQSENSE株式会社は、日本国内で自律移動型ロボットの製造・開発を行う企業。ソフトウェア、ハードウェア、クラウドシステム、サービス設計から導入にかかわるコンサルタント業務まで自社で手がけ、 主力製品である警備ロボット「SQ-2」シリーズは、2025年9月時点で全国80台以上の導入を達成している。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/758
759: オーバーテクナナシー [sage] 2025/09/28(日) 10:08:07.40 ID:6tFNPRmt 米中先行の人型ロボ開発、家庭・工場・被災地の現場を1体で担う「汎用型」目標に…競争加速で見直し 9/28(日) 5:00配信 内閣府は、社会を変えるような挑戦的な研究を支援する「ムーンショット型研究開発制度」で、家庭や工場、被災地など様々な現場で活躍できる汎用(はんよう)の人型ロボットの開発を 新たな目標に定める方針を固めた。2030年までに試作機を作り、基盤技術の獲得を目指す。米中をはじめ海外で人型ロボットの開発競争が加速する中、日本の研究開発を促進したい考えだ。 20年に始まった同制度は、国が挑戦的な目標を定めて研究を公募し、総額約4000億円の基金から最長10年間支援する。現在「台風や豪雨を制御」「100歳まで健康不安なく人生を楽しむ」 など10の目標があり、今回はこのうちの「人と共生するロボットを実現」の内容を見直す。人工知能(AI)の発展で、汎用の人型ロボットが現実味を帯びてきたことが背景にある。 これまでは人型に限定せず、介護や家事、災害対応などに使われるロボットの開発を個別に進めていた。 新たな目標として、これらの作業を1体で担える人型ロボットの開発を目指す。30年までに、人間の支援の下で一定数の作業に対応できる試作機を製造する。民間投資の呼び水とするほか、AIの研究を後押しする狙いもある。 50年までに、学習しながら自律的に判断し、人間と同等以上の身体能力を備えたロボットを目指す。今年度中に新たな研究代表者などを公募する予定だ。 現在普及している産業用などのロボットは、特定の用途のみに使われ、活動できる現場も限定的だ。一方、一般社会の建物や道具などは人間向けに作られているため、あらゆる現場で使うには人型が適している。 汎用の人型ロボットの開発は加速している。米国では、電気自動車大手のテスラが、工場や家庭などでの利用を想定した「オプティマス」を開発し、来年にも量産を始める予定だ。 中国も人型ロボットを米国との先端分野の覇権を争う重要分野と位置付け、将来の労働力不足も見据えて急速に技術力を高めている。 内閣府の担当者は「当初の想定より技術の進展が速く、より野心的な目標に見直す。日本の強みであるロボット技術を発展させたい」と話している。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/759
760: オーバーテクナナシー [sage] 2025/09/28(日) 10:17:01.70 ID:6tFNPRmt GMO熊谷氏「ヒューマノイドは自動車産業を超える」家庭にも普及する? 熊谷氏がCEOのAIヒューマノイドと共同記者会見 2025年9月26日 GMOインターネットグループは2025年9月25日(木)に「GMO AI・ロボティクス大会議&表彰式2025」を開催した。イベント終了後には、同グループ代表の熊谷正寿氏による プレスカンファレンス(記者会見)が行われ、ヒューマノイドに対する思いや、今後ヒューマノイドが社会にどのように浸透していくかについて語られた。 プレスカンファレンスには、AI・CEO「ヒューマノイド 熊谷正寿」も同席した。 AI・CEO「ヒューマノイド 熊谷正寿」は、日本で初めてAI・CEOをヒューマノイドロボットとして具現化したもの。ボディは「Unitree G1」で、顔にはディスプレイを搭載、熊谷正寿CEOの顔や表情を写している。 チャットボットを通じて対話を行うことで、事業における意思決定のさらなる高速化が可能とされる。これまでに3,500セッション以上、6,800回を超える対話を実施してきたという。 GMOインターネットグループは、意思決定のさらなる高速化が必要だと考え、2024年7月から「GMO Brain AIプロジェクト」を推進。その第1弾として、同年12月に社内向け独自AIツール 「AI 熊谷正寿」をパートナー(従業員)向けに提供開始した。「AI 熊谷正寿」は、熊谷氏の思考やフィロソフィー、そしてGMOインターネットグループのカルチャーを集約・言語化した 「GMOイズム」を学習した“バーチャル知的ナビゲーター”として位置付けられている。 今回のヒューマノイドは、そのプロジェクトをさらに一歩進めた形となる。 「GMO Brain AIプロジェクト」での「ヒューマノイド 熊谷正寿」の意義について問われた熊谷氏は、次のように語った。 定性的ですが、回答精度という点では、彼(ロボット)は今はまだ80%くらいです。しかし、私のことを毎日学習しています。人は1日8時間労働ですが、ロボットは24時間365日働くことができます。 私は1つの会議にしか出席できませんが、彼は10台のコピーを作れば10の会議に同時に出席できます。私が100の精度で答えられても、彼が80の精度でも10の会議に出席できるなら、 会社全体で見れば彼の方が生産性は高いとも言えます。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/760
761: オーバーテクナナシー [sage] 2025/09/28(日) 10:18:35.12 ID:6tFNPRmt これが、私の考え方を移植したAIを物理的に搭載したAIヒューマノイドの可能性であり、社会的に意義のあることだと感じています。 今はまだ実験段階ですが、多くのアンケートやデータを取得し、定量的・定性的に彼の存在意義をレポート化して発信していきたい。AIロボティクスの社会実装に 役立てたいという思いで、このプロジェクトをスタートしました。」 ヒューマノイド事業のポテンシャルについて問われた熊谷氏は、次のように語った。 ヒューマノイド市場は、自動車産業を超える規模に近々成長する可能性が十分にあると考えています。テスラのイーロン・マスク氏は、2025年に自社工場でオプティマスを数千台導入し、 その後本格的な大量生産と外販を開始し、2027年までに年間50万台の生産を目指しているという報道もあります。中国政府もヒューマノイド開発支援に全力で取り組んでいます。 私自身も、ヒューマノイドが今後の産業革命の中心になると考えています。日本におけるヒューマノイド事業では、GMO AIR(GMO AI&ロボティクス商事)を中心的な企業に育てたい。 現在はまだ啓蒙活動の段階と捉えていますが、成長するヒューマノイド産業のトップランナーにしたいと思っています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/761
762: オーバーテクナナシー [sage] 2025/09/28(日) 10:19:25.73 ID:6tFNPRmt ヒューマノイドは産業利用と家庭利用のどちらが先に普及するかという問いに対し、熊谷氏は次のように述べた。 産業利用は作業がパターン化されているため、家庭利用に比べると簡単です。すでに工場で産業用ロボットが普及しているのは、作業がパターン化されているからです。 一方、家庭利用では代わりにやってほしい作業が家庭ごとに異なり、バラエティに富んでいてパターン化が難しい。例えば洗濯を例にとると、洗濯機の役割はシンプルですが、 洗濯物を畳む方法やアイロンのかけ方は人によって好みが違います。家庭用ロボットに求められるスキルの実現は難しいですが、実現は時間の問題です。人が思っているより早く、数年でできるようになるでしょう。 そう考えると、産業用やビジネス用途ではすぐにできることが増え、急速に普及していくと思います。 ただし、普及には価格も重要です。家庭に普及するためには、軽自動車程度の価格帯になる必要がありますが、それも2〜3年先には実現するのではないでしょうか。 今はまだ想像できないかもしれませんが、2〜3年後には家庭にヒューマノイドがいる、そんな時代が来る可能性があると考えています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/762
763: オーバーテクナナシー [sage] 2025/09/28(日) 10:20:38.66 ID:6tFNPRmt 人の動作をリアルタイム転写するヒューマノイドロボットをEmplifAIが実装「人の即興性×ロボットの到達性」共同実証パートナー募集 2025年9月26日 株式会社EmplifAIは、操作者の身体動作や意図をリアルタイムにヒューマノイドロボットへ転写する遠隔・身体共有型テレプレゼンスの実装に成功したと発表した。 同技術は、ステージ演出・ライブ配信などの「人が乗り移った」ような体験や、高所・狭隘・被ばくリスク等を伴う現場での代替支援に発展し得ることを示している。あわせて、 PoC(概念実証)・実証実験の共同パートナー企業の募集を開始する。 自立させながらの身体制御は、既存の自律制御だけでは再現が難しく、現場適用のボトルネックだった。EmplifAIは、操作者視点の知覚と動作意図をロボットへ低遅延で写し取る アプローチにより、「人の即興性×ロボットの到達性」を両立。初期検証では、腕・上体・歩行の協調などの基本動作で追従を確認している。 同技術の主な特徴は、低遅延・高追従性を実現し、操作者の上半身・手先の運動をロボットへリアルタイム反映することだ。汎用ロボット対応として、ヒューマノイド(例:Unitree G1等)を中心に、用途に応じて拡張可能となっている。 応用分野として、以下のケースが想定されている。 ・エンターテインメント・ライブ演出:パフォーマーが「乗り移った」ロボットが舞台上で演技・所作を披露し、配信コンテンツの拡張が可能だ。 ・教育・文化体験:熟練者の身体知を遠隔地へ「身体ごと」伝えるワークショップが実現できる。 ・危険作業の代替支援:高所・狭隘・被ばく・有害物取扱い等の現場で、人の判断×ロボットの到達性を融合した作業が可能となる。 ・イベント運営・接客:遠隔プレゼンスでの来場対応、案内、簡易作業などに活用できる。 同社は「この場面で使えるかも」「まずは軽く試したい」など、ラフな相談から歓迎するとして、共同実証パートナー企業の募集を開始した。 想定領域は、エンターテインメント・イベント、製造・物流、インフラ、研究、自治体などとしている。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/763
764: オーバーテクナナシー [sage] 2025/09/28(日) 10:23:00.42 ID:6tFNPRmt Googleが「Geminiロボティクス」の最新動画4本を一挙公開 ヒューマノイドAIも驚異的に進化、VLAモデルの動画を徹底解説 2025年9月27日 Google DeepMindが「Gemini Robotics 1.5」の最新動画を2025年9月26日に一挙に4本公開し、驚異的な進化が話題になりはじめています(動画のYouTube設定で 音声トラックに「日本語」を指定することで、AIによる日本語翻訳で解説を聞くことができる)。 「Gemini Robotics」はヒューマノイドを含むロボット工学向けに設計されたGeminiを基盤としたAIモデルです。 「Gemini Robotics」の最大の特徴は、ロボットを直接制御することを目的に、視覚(Vision)・言語(Language)・行動(Action)を統合したVLA(Vision-Language-Action)モデルを追求し、 現実世界で汎用的に動作できる点です。VLAモデルは現在のAIロボティクス分野で最も注目されている最先端技術のひとつです。 「Gemini Robotics 1.5」は、高次元の思考・計画機能を持つ補助モデル「Gemini Robotics-ER 1.5」と連携して設計され、複雑なタスクやマルチステップの実行で、 単なる反応的な動作ではなく「先読み」「分割実行」「ツール利用」などが拡張されています。 では、各動画とポイントを見ていきましょう。 ・Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks ・Gemini Robotics 1.5: Using agentic capabilities ・Gemini Robotics 1.5: Learning across embodiments ・Gemini Robotics 1.5: Thinking while acting 冒頭の「Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks」は以降の3つの動画を包括的にまとめたものになっています。 時間のない人はまずはこれを見るとよいでしよう。じっくり理解したい人のために、この記事ではあえてラストに解説します。 Gemini Robotics 1.5: Using agentic capabilities Gemini Robotics 1.5 が単に反応的に動くロボットではなく、ある種の自律的判断能力を持つ「AIエージェント」として振る舞えることを示しています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/764
765: オーバーテクナナシー [sage] 2025/09/28(日) 10:24:11.22 ID:6tFNPRmt 動画では、ロボットが「エージェンティックAI(AIエージェント)の能力、エージェンティック(agentic)能力」を持つことにフォーカスしています。今までは単純に「命令」を受けて 「動作」するだけの行動だったものが、エージェンティックAIの進化によって、自律的に判断・計画・行動ができるようになる、という能力です。 エージェンティックAIによって、環境を観察し、目標を分割したり、優先度をつけたり、その場で戦略を変えたりしながら動作を決定する、その一連の様子が見て取れると思います。 もうひとつ重要なポイントとして、エージェンティックAIは必要なツール(例えば Google検索など)を呼び出したり、外部の情報にアクセスすることで、必要な知識をAIロボットが 補完しながら行動できる能力も示唆しています。この機能はロボティクスに限らず、ビジネス分野でも、最新のエージェンティックAIが、目的を遂行するために必要なソフトウェアや APIをAIが自律的に活用する機能として注目されています。 また、動作を実行する際の思考プロセス(行動をステップごとに言語で表現する思考)をAIが生成している可能性もあります。「思考してから動く (think before acting)」能力を垣間見ることができます。 Gemini Robotics 1.5: Learning across embodiments ロボットが把持や物体操作、持ち替える動作などの具体的なタスクを、複数のロボット構成であっても同一のモデルがで実行できる様子に着目するとよいでしょう。 この動画の「embodiment(具現体・身体構成)」とは、ロボットの形や関節やセンサー構成などを指す用語として使われています。従来、ひとつのロボットで学習した動作を別の形状のロボットに そのまま適用するのは困難でした。例えばアーム型、双腕型、ヒューマノイドでは、基本構造はもちろん、関節の自由度、動力の特性等が異なるためです。しかし、次世代のロボット基盤モデルでは、 その違いをソフトウェアが吸収することを目指して研究が進められています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/765
766: オーバーテクナナシー [sage] 2025/09/28(日) 10:25:32.15 ID:6tFNPRmt この動画では、「Gemini Robotics 1.5」は「ロボットの種類や身体構成が異なっていても、学習した動作やスキルを別のロボット(embodiment)に転移(transfer)できる」能力の成果が示されています。 動画の中で、Google DeepMindは、アーム型ロボットの「ALOHA2」で学習したスキルを、双腕ロボット「Franka」やヒューマノイド「Apollo」にそのまま応用(転移)したデモを披露しています。 こうした能力は、ロボット学習における汎化性能を大きく高めます。従来のようにロボットのメーカーや機種が異なる度にAIの膨大な再学習が必要なくなれば、時間やコストを大幅に削減できる可能性があります。 Gemini Robotics 1.5: Thinking while acting 「thinking while acting」とは「思考しながら動く」ことで、タスクを実行中にも判断と制御をリアルタイムで更新し、次に行うべき最適な動作を絶えず思考しながら実行できるスキルを指しています。 従来は「ある計画を立てたらその通りに実行する」というのがプログラムにとってはセオリーでしたが、人はタスクの途中に障害物が現れたり、物の位置が変わったり、他の人が介入するなど、 予期しない環境変化を認識したとき、臨機応変に対応しようとします。身体性を持ったAIロボットにも同様に「thinking while acting」が重要です。 具体的には、タスク遂行中にも「思考ステップ:中間推論(intermediate reasoning)」を生成・更新しながら、次の動きを決定する様子を動画で確認することができます。 Google DeepMindのブログによれば、「思考 (thinking) を経てから動く (think before acting)」というスキルをさらに発展させた形として「思考しながら動き続ける」能力が重要視されています。 この動画では、途中で目標物が動いたり、障害物が現れたり、環境変化が起こっても、ロボットが思考を止めることなく、連続的に最適なタスクを再演算・更新しながら動作を修正しています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/766
767: オーバーテクナナシー [sage] 2025/09/28(日) 10:27:11.20 ID:6tFNPRmt Gemini Robotics 1.5: Enabling robots to plan, think and use tools to solve complex tasks 「複雑なタスク」を解くために、ロボットが「計画 (planning)」「思考 (thinking)」「ツール使用 (tool use)」まで組み合わせて行動するなど、総合的な作業を達成できる様子を紹介したものです。 以降の3つ動画が詳細に解説していることを包括的にまとめたものでもあります。 他の3つ動画で示されているように、ロボットが単純な命令に応えるだけではなく、タスクのゴールまでのプロセスを分解して段階的なステップを生成し、そのステップにもとづいて行動し、 必要に応じて外部ツール(検索、データベース参照、情報取得など)を活用して補助を行う能力を達成する可能性が示されています。 例えば、「洗濯物を色別に仕分けする」「ある地域(サンフランシスコなど)のゴミ分別ルールを調べて適切に分類する」など、作業のタスクが複数の段階にわたっていても、 AIロボットが自律的に考えて実行していく可能性を示唆しています。 また、AIロボットが「リーズニング」を生成し、それをもとに行動を段階的に実行していく手法として「思考してから動く (thinking before acting)」ことも示されています。 例えば「AIロボットが実世界で何をすればいいか判断するために、ウェブ検索をかけてその地域のゴミの分別ルールを参照」することで、より詳細な情報を取得して行動の精度を上げたり、 改善するため活用するといったタスクに発展できる可能性があります。 ビジネス分野でも「AIエージェント」は単にユーザーの質問に回答するツールとしてだけでなく、「思考」「計画」「実行プロセス立案」「選択」「ツール呼び出し」「実行」「成果と評価」といった 一連の流れを自律的に行うことが期待されています。身体を持ったロボットにも自身が自律的に構成して制御できるスキルが求められていることを示した内容になっています。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/767
768: オーバーテクナナシー [sage] 2025/09/29(月) 21:03:58.53 ID:XxZ5OA4I ヒューマノイド開発を支援する「NVIDIA Cosmos世界基盤モデル」とは・・ 世界モデルと世界基盤モデルの違いを解説 2025年9月29日 2025年9月25日に開催された「NVIDIA AI Day Tokyo」のセッションの中から、前回は人気の高いフィジカルAIをトピックとした講演「フィジカルAIで加速する ヒューマノイドロボティクス NVIDIA Isaac GR00TとCosmosの紹介」の前半を紹介した。 今回はその講演の中盤で紹介された「NVIDIA Cosmos 世界基盤モデル」と、「世界モデル」について解説したい。 ヒューマノイドやロボットのAI学習にも膨大な学習データが必要になること、学習データを収集するにはテレオペレーション(ロボットの遠隔操作によるリアル環境でのデータ収集)が有効なこと、 しかし、その収集方法には現実的に時間やコスト面で限界があること、それを更に拡張するためにはシミュレーション環境によってデータ収集する「ドメインランダム化」「シミュレーションtoリアル」 が有効なことを解説した。しかし、そこにもまた限界がある。 その状況を俯瞰して見ると、次のようなデータピラミッドが形成されるというが、更に拡張するフェーズが「世界モデル」(世界を理解するモデル)の活用だ。世界モデルとは、物理法則や 空間特性などの現実世界の力学を理解する生成AIモデルのことで、テキストや画像、ビデオ、アクションなどの入力データを使用して動画を生成することができる。 感覚データから運動や力加減、空間的な関係などの力学を表現し、予測する方法を学ぶことで、現実世界の環境の物理的特性を理解するとされている。 大規模言語モデルがWEBにある膨大なデータから学習したように、それと同様にロボットの学習データとしてWEBにある膨大なデータを活用できないだろうか、というアプローチだ。 「世界モデルは世界の観測情報から世界の構造を学習し、入力に基づいて未来の状態を予測するモデル」、言い換えると「データドリブンで世界の原則を理解するようなモデル」だ。 実際に細かい物理法則は理解していないものの、野球のボールを投げたらどのような放物線を描くということを予測できるモデル」(加瀬氏)となっている。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/768
769: オーバーテクナナシー [sage] 2025/09/29(月) 21:05:25.19 ID:XxZ5OA4I 「世界モデル」を使って、シミュレーション上のアイテムやマテリアル、環境などのデータを拡張する取り組みが行われている。 この取り組みは自動運転の学習にも有効で、自転車や子どもが飛び出す、火災が発生するなど、実際のデータでは実現させることが困難なケースを世界モデルなら 生成することができ、データのスケールアップが可能だと考えられる。 ロボットが環境を理解・予測するために内部に構築するのが「世界モデル」で、環境のダイナミクス(状態がどう遷移するか)や観測の生成過程を学習したもの。そしてこの「世界モデル」を 取り込み、多くの環境・センサー・行動データを大規模に学習した汎用モデルを「世界基盤モデル」と呼ぶ。 知識・推論・感覚データを統合し、原則としてどんなロボットにも転移可能な「共通の世界理解」を目指している。 世界モデル ロボットが環境を予測するための内部モデル 世界基盤モデル 大規模なマルチモーダルデータで学習し、「多くのロボットが共通で利用できる」汎用モデル NVIDIAが世界基盤モデルとして提供しているのが「Cosmos」だ。 世界モデルを学習させるために、2000万時間分のデータを取得。1万基の「NVIDIA H100 GPU」で2000時間以上のトレーニングを積んで学習させた。 世界基盤モデル「Cosmos」はユーザーが実際に利用しやすいように、3つのモデルで分けて、オープンソースとして提供されている。3つのモデルとは、 マルチモーダル入力から未来の仮想世界の状態を予測する「Cosmos Predict」、現実世界と3D入力によって条件付けられた仮想世界を生成する「Cosmos Transfer」、 物理AIの世界状態理解のための思考連鎖推論「Cosmos Reason」だ。 Cosmos-Predict マルチモーダル入力から最大30秒の連続ビデオを生成する世界状態予測モデル。 Cosmos-Transfer シミュレーションと実世界の間での知覚的ギャップを橋渡しするための条件付き世界生成モデル。 Cosmos-Reason ビデオフレームに対する推論を行い、物理的常識を理解するモデル。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/769
770: オーバーテクナナシー [sage] 2025/09/29(月) 21:06:48.88 ID:XxZ5OA4I 「Cosmos Predict」はテキストと動画や静止画、アクションなどのコンディションから最大30秒間の動画を生成することができる。 加瀬氏によれば「Cosmos Predictは演算の負荷が高いモデルのため、相応のGPUの性能が必要になる」という。5秒間の映像を生成するために必要な性能と所要時間を示した表を提示した。 「Cosmos Transfer」は様々な入力から映像の背景を生成して変更できる。例えば、OmniverseとIsaac laboで使う場合、リアリスティックな映像を作るには通常、時間とコストがかかってしまうが、 「Cosmos Transfer」を活用すれば、背景や環境、小物のアイテムまで作り込む必要がなく、簡単なモデルだけを作り、それ以降は「Cosmos Transfer」で生成できるメリットがある。 「Cosmos Reason」は名前の通りリーズニングするモデル。 ロボットでのユースケースとして「キャプショニング」や「アクションの計画」などを紹介した。 また、使用する学習データが学習に適したものかどうか(学習するのには不適切なデータかどうか)を判断するのにも利用できるという。 加瀬氏は世界モデルを解説した上で、NVIDIAのヒューマノイドの研究開発プロジェクト「Isaac GR00T」(アイザック・ジーアールゼロゼロティー、通称グルート)を紹介した。 機会があれば、更に「Isaac GR00T」についてもレポートしていきたい。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/770
771: オーバーテクナナシー [sage] 2025/09/29(月) 21:08:01.38 ID:XxZ5OA4I 菱熱工業がAI活用の施設管理システム「天才施設管理者」の提供開始 2025年9月29日 菱熱工業株式会社は、AIプラットフォーム「天才施設管理者」を開発し、2025年9月10日(水)より本格的なサービス提供を開始したと発表した。 「天才施設管理者」は、製造や店舗などの現場施設データを集約・可視化し、経営層がタイムリーに現場状況を把握できるよう支援するAIプラットフォームだ。食品工場、外食店舗、 シネマコンプレックスなどでの空調設備管理を中心に活用可能で、今後は幅広い業種への展開を計画している。 同社は3年間で100社の導入を目指すとしている。2025年8月にテスト運用を開始し、約1か月の試用期間を経て本格サービスの提供に至った。 「天才施設管理者」の主な機能は以下の3つに分かれる。 1.現場状況の可視化とトラブル対応機能 現場データを一元管理し、機器仕様や部品情報を検索可能にする。エラー原因の推定なども行い、経営層から瞬時に現場状況を把握できる仕組みを提供する。 2.経営判断・投資計画の支援機能 更新工事の履歴や予定を可視化し、固定資産台帳などと連携することで、データに基づく合理的な投資判断をサポートする。 3.技術継承と知識の標準化機能 ベテラン社員のノウハウをAIに蓄積し、若手社員への技術継承を促進する。これにより属人化を防ぎ、知識を標準化することが可能になる。 開発の背景には、同社が長年直面してきた「情報の断絶」という課題がある。経済産業省「2024年版ものづくり白書」によれば、部門間で「連携できている」と答えた企業はわずか34.6%にとどまっている。 こうした状況を踏まえ、同社は現場と経営をつなぐAIプラットフォームの必要性を感じ、「天才施設管理者」の開発に至った。 同サービスは、設備管理に関する知見とRAG(検索拡張生成)技術を組み合わせ、固定資産台帳や点検報告書、HACCP関連文書などの重要データを活用可能にしている。 システムベンダーとは異なる”設備の現場に根差したAI支援”を実現するとしている。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/771
772: オーバーテクナナシー [sage] 2025/09/29(月) 21:08:38.60 ID:XxZ5OA4I 導入プロセスは4段階で構成される。課題ヒアリング・方向性決定から始まり、学習データ収集・投入、AI構築(約2週間)・試用(1週間)を経て、 運用開始後のフィードバック・改善まで一貫してサポートする。 料金体系は、初期制作費が20万円から。月額利用料は1アカウント4,000円(20アカウントまで)、21アカウント目以降は1アカウント3,000円となっている。年間契約が基本となる。 将来的には、故障報告の自動受付や協力業者への自動発注、経営判断の自動化など、AIによる「エージェント化」を進めていく予定だ。労働力不足やリスクマネジメントなどの 経営課題解決に貢献するとともに、経営層から現場担当者まで誰もが使いやすく、幅広く活用できる意思決定支援ツールとして展開していくとしている。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/772
773: オーバーテクナナシー [sage] 2025/09/29(月) 21:09:52.25 ID:XxZ5OA4I ソフトバンク×理研 量子コンピュータとAI計算基盤の相互接続を10月より開始 2025年9月29日 ソフトバンク株式会社(以下、ソフトバンク)と国立研究開発法人理化学研究所(以下、理研)は、学術情報ネットワーク「SINET(サイネット)」への接続サービスを活用して、 ソフトバンクのAI計算基盤と理研が運用する量子コンピュータの相互接続を、2025年10月に開始すると発表した。 ※SINET(Science Information NETwork)とは、日本国内の大学や研究機関などの学術情報基盤として、国立情報学研究所が運用する情報通信ネットワークのことを指す。 この取り組みは、経済産業省の「ポスト5G情報通信システム基盤強化研究開発事業」として、NEDOが公募した「計算可能領域の開拓のための量子・スパコン連携プラットフォームの 研究開発」に、ソフトバンクと理研が提案して採択された「JHPC-quantum」プロジェクトの一環として推進される。 本プロジェクトでは、これまで理研の量子コンピュータと、東京大学および大阪大学が運用するスーパーコンピュータとの接続・連携を進めてきた。今回新たにソフトバンクの AIデータセンター内に構築したAI計算基盤との接続を、学術情報ネットワーク「SINET」への接続サービスを活用して開始する。 これにより、量子コンピュータとスーパーコンピュータとの連携環境がさらに拡大し、事業化を見据えた研究開発を加速するとともに、産学連携による ハイブリッド計算環境を活用した新たな研究や応用検証が本格的に始動する。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/773
774: オーバーテクナナシー [sage] 2025/09/29(月) 21:11:21.46 ID:XxZ5OA4I 理研においては、2025年2月にイオントラップ型「黎明/REIMEI」と、6月には超伝導型「ibm_kobe」という異なる方式の商用量子コンピュータの導入が完了し、 量子コンピュータとスーパーコンピュータの連携を実現するソフトウエア環境の整備を進めている。 量子コンピュータとスーパーコンピュータを低遅延の高速ネットワークで密に結合し、連携利用を可能にするプラットフォームを構築するとともに、量子・HPC 連携アプリケーションを開発し、その有効性について検証する。 今後ソフトバンクでは、本プロジェクトで採択するテストユーザーの活用ニーズに対応するため、SLA(品質保証制度)やセキュリティ、運用標準などの整備を進め、 事業化を見据えた検証を行っていくとしている。 GMOの「AI・ロボティクス」イベントで石破総理とNVIDIA CEOがビデオメッセージを寄せる 2025年9月29日 GMOインターネットグループは2025年9月25日、都内で「GMO AI・ロボティクス大会議&表彰式 2025」を開催した。AIやロボティクスに関する、産官学のキーマン達が 集結して多数の講演が行われた。総合司会はフリーアナウンサーの加藤綾子氏がつとめた。 今年は石破首相やNVIDIAの創業者/CEO ジェンスン・フアン氏がビデオメッセージを寄せた。 石破首相は「GMO AIロボティクス大会議&表彰式2025」の開催を祝し、AIとロボティクスが産業、物流、医療、介護、災害対応など幅広い分野で社会を大きく変革する力を持ち、 特に少子高齢化の日本にとって重要であると強調した。 政府はAI法に基づき「人工知戦略本部」を設立し、イノベーション促進とリスク対応を両立しつつ、世界で最もAIを活用しやすい国を目指す方針。 本年度中には社会実装と競争力強化に向けた戦略を策定予定で、日本のロボティクス技術と文化的背景を活かし、未来を切り開く可能性に言及した。 NVIDIA 創業者/CEOのジェンスン・フアン氏は、次世代のAI・ロボティクス向けて重要なのはデータセンター「AIファクトリー」であり、GMOはそのサービス提供に既に着手していることを紹介した。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/774
775: オーバーテクナナシー [sage] 2025/09/29(月) 21:12:35.01 ID:XxZ5OA4I AIは産業や科学を根本から変革し、各国・企業がその活用を進める歴史的転換期を迎えています。その中心となるのが新しいデータセンター「AIファクトリー」であり、 GMOはすでに日本企業向けに稼働を開始しています。 次世代基盤「Blackwell(B300)」は、大規模推論や計画、リーズニングに対応し、リアルタイム処理を可能にする性能を備え、科学・産業・ロボティクス分野の国家的ニーズを 支える存在となります。日本が強みを持つメカトロニクスと融合すれば、ロボットはAIファクトリーで訓練され、認識・判断・行動を備えた自律的存在として展開されます。 GMOとの協業は日本の基盤インフラ拡張に寄与し、新時代の変革を牽引するでしょう。 (日本語で)こんにちは。 ロボティクスとAIの未来を形作るイノベーター、エンジニア、そして発明家、夢を追うすべての皆さんとお話ができることを光栄に思います。今は歴史的な時です。 新しいコンピューティングモデルが登場しました。AIはあらゆる産業と科学分野を変革するでしょう。すべての国がAIを構築し、すべての企業がAIを活用するでしょう。 この変化の中心にあるのは、新しいタイプのデータセンター「AIファクトリー」です。 GMOはすでにプラットフォームをオンライン化し、日本企業も利用し始めています。これらのシステムは実際のワークロードを実行し、確かな成果を生み出しています。 そして今、「B300」によってGMOは次の未来に向けて準備を進めています。 Blackwellは、当社の最先端プラットフォームです。大規模な推論、計画、リーズニング、トークン生成を行うモデル向けに構築されています。大規模なリアルタイム 推論をサポートするために必要なパフォーマンスと効率性を提供します。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/775
776: オーバーテクナナシー [sage] 2025/09/29(月) 21:13:28.72 ID:XxZ5OA4I Blackwellを搭載したAIファクトリーは、科学、産業、そしてロボティクスにおける国家のニーズに応え、あらゆる国のデジタルインフラの一部となるでしょう。 日本は長年にわたり、メガトロニクスと精密システムにおいて世界をリードしてきました。 AIの活用により「自動化」を超える「自律化」を実現する機会が生まれます。ロボットはシミュレーションで改良されたAIファクトリーで訓練され、認識、判断、 行動が可能なエッジAIを搭載して展開されます。 熊谷さん、あなたのビジョンは明確ですね。 日本の基盤インフラを構築されています。この新しい時代に、GMOと提携してプラットフォームの拡張と日本の変革に貢献できることを誇りに思います。 (日本語で)ありがとうございます。 AI警備システムの有効性を検証する実証実験 三菱地所・下地島空港施設・下地島エアポートマネジメント 2025年9月29日 三菱地所株式会社、下地島空港施設株式会社、下地島エアポートマネジメント株式会社の3社は、セコムを監修者として、沖縄県宮古島市所在の下地島空港において、 航空保安・空港警備の高度化および効率化を目的に、AIカメラを用いた警備体制の有効性を検証する実証実験を実施したと発表した。 空港内の制限区域(駐機場周辺)を警備対象に含めたAIカメラによる空港警備の本格的な実証は日本で初となる。コロナ禍明け以降、海外を中心とした旅客便の復便と 新規増便を背景に、各空港は受入体制の拡充を求められている。空港警備についても更なる強化が必要だ。 下地島空港では、2025年上半期(1〜6月)の乗降客数が開港以来初めて20万人を超えるなど増加しており、関係する事業者間で連携して体制強化に取り組んでいる。 しかし、警備の領域においても業務負荷や人手不足を起因とする人材の確保、年々厳しくなる気候を起因とする作業負担など課題を抱えていた。 これらを解決し既存便・新規便を適切に受け入れるには警備の高度化・効率化が必要である。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/776
777: オーバーテクナナシー [] 2025/09/29(月) 21:14:31.87 ID:XxZ5OA4I 3社はこうした警備上の課題に対してDXを通じ解決すべく、セコムを監修者としてAI監視カメラを活用した空港警備の実証実験を行い、技術面・運用面の課題の抽出およびリスクアセスメントを実施した。 実証実験は2025年6月16日(日)から20日(木)まで、下地島空港の国内線駐機スポット、旅客動線および旅客ターミナルで実施された。実証対象は以下の3つである。 1.機側監視:国内線の駐機場における、機体駐機中および駐機のない時間帯の侵入等監視 2.搭乗・降機動線監視:搭乗ゲートから機体側、または機体側から預入手荷物受渡場まで、徒歩移動する旅客が指定通路を逸脱・逆流しないで移動するか等の監視 3.投げ込み監視:保安検査を通過した旅客が危険物等を入手しないように不審な行動等の監視 旅客ターミナル一般エリアから駐機場までの警備ポストの一部をAIカメラによる監視に切り替えた結果、AIの支援機能が警備員負担の軽減やヒューマンエラーの予防につながる等、DXによる警備力の向上を確認した。 空港警備でのAIカメラ活用により、下地島空港では最大約4割の警備リソースの効率化が期待できる。3社は国土交通省航空局が推進する空港業務DXに寄与すべく、今後の実運用に向けた関係者協議を進めていく。 実証実験では、セーフィーのクラウドカメラと、マクニカのクラウド環境上で提供されるicetana社のAI技術を利用した。監視カメラの導入により空港エリア全体の監視が可能になり、 加えてAIの支援機能がマルチタスクを担う警備員負担を軽減、ヒューマンエラーを予防し、警備力が更に向上したことが分かった。 実証した警備システムを前提に警備主体が異なる旅客ターミナル・空港施設・航空会社それぞれの警備を一体化することで、空港全体の警備効率化の可能性を確認できた(最大約4割程度)。 3社は旅客便の更なる乗り入れを通じ下地島空港および宮古島エリアの活性化を目指すとともに、AIなどのデジタル技術を活用することで社会・地域の課題解決に貢献していく方針である。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/777
778: オーバーテクナナシー [sage] 2025/09/29(月) 21:17:22.40 ID:XxZ5OA4I 2枚幅GPUカードを搭載できるコンパクトボックス型コントローラー専用拡張ボックス エッジコンピューティング NECプラットフォームズは、コンパクトボックス型コントローラー専用の「拡張ボックス 2Slotモデル」の販売を開始した。組み込み向けの2枚幅GPUカードを搭載可能で、 製造業の外観検査などにおけるエッジAI処理を省スペースで可能にする。 2025年09月26日 14時00分 公開 NECプラットフォームズは2025年9月8日、コンパクトボックス型コントローラー向けにPCI Expressボードを2スロット備えた「拡張ボックス 2Slotモデル」の販売を開始したと発表した。 Intel第13世代CPU(Raptor Lake-S Embedded)を採用したコンパクトボックス型コントローラーの「Intel製プロセッサー搭載モデル」のオプションとして提供する。最小構成となるIntel Celeron G6900TE、 メモリ8GB、ストレージ120GBと組み合わせた場合の価格(税別)は46万7100円。年間1000台の販売を目標に掲げる。 本製品は内蔵電源を採用し、消費電力や放熱の制約がある現場でも安定稼働を可能にした。300W電源により24時間運用が可能で、GPUを活用した高負荷処理を安定して実行できる。 組み込み向けの2枚幅GPUカードを搭載でき、製造業の外観検査や医療機関での高解像度画像処理、研究機関でのAI(人工知能)推論や学習などに対応する。 対応GPUカードは、NVIDIA RTX 2000 AdaとRTX 4000 SFF Adaで、動作検証済み。筐体サイズは238.7mm×240mm×130mmで、1枚幅または2枚幅のハーフレングスGPUに対応し、 滑らかな映像表現や高精度な処理が可能となる。 http://rio2016.5ch.net/test/read.cgi/future/1592947307/778
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.010s