Boston Dynamics×OpenAI「Atlas-GPT」発表、自然言語で指示できるヒューマノイドロボットが倉庫作業で成功率94%を達成

ハック
Picsum ID: 1045
記事のアイキャッチ画像
Photo by Lorem Picsum

2026年1月15日、ラスベガスで開催されたCES 2026において、Boston DynamicsとOpenAIが共同開発したヒューマノイドロボット「Atlas-GPT」が発表されました。このロボットは、自然言語による指示のみで複雑な物流作業を実行できる画期的なシステムで、事前プログラミングなしで非構造化倉庫環境において94%という驚異的なタスク成功率を達成しています。労働人口減少に悩む物流業界にとって、これは革命的なソリューションとなる可能性を秘めています。

従来のロボットとは一線を画す「Atlas-GPT」の技術

Atlas-GPTの最大の特徴は、OpenAIが開発した新型マルチモーダルLLM「GPT-5 Embodied」を統合している点です。このシステムは、Vision-Language-Action(VLA)トランスフォーマーと呼ばれる技術を採用しており、視覚入力、言語理解、ロボット制御を単一のモデルで処理します。

{IMAGE_2}

従来のロボットでは、タスクごとに数週間のプログラミングと訓練が必要でしたが、Atlas-GPTは「3階の棚から赤いボックスを取って、梱包エリアBに運んで」といった曖昧な指示を即座に理解し実行できます。これは、NVIDIA Jetson Thor SoC(AI処理能力1000 TOPS)を搭載したオンボードコンピューティングにより、30Hzのリアルタイム処理速度を実現しているためです。これは従来の3倍の速度に相当します。

実環境での驚異的なパフォーマンス

Atlas-GPTは、Amazon倉庫環境を模した実証実験で94%のタスク成功率を記録しました。さらに注目すべきは、そのエラーリカバリー能力です。物体を落とした場合でも、自律的に拾い直して作業を継続でき、その成功率は89%に達します。

ロボットの身長は1.5m、体重は89kgで、全身28自由度を持ちます。特筆すべきは各指が3自由度を持つ10本指の構造で、各指先には16×16解像度の触覚センサーが搭載されています。これにより0.1N単位での精密な力覚フィードバック制御が可能となり、「壊れやすい」「重い」といった概念を理解して把持方法を自動調整できます。

{IMAGE_3}

充実した訓練データと安全性への配慮

Atlas-GPTの高い性能は、膨大な訓練データに支えられています。NVIDIA Isaac Simでのシミュレーションで500万時間相当のロボット作業データ、さらに150台のAtlasによる実環境での8万時間の作業データが活用されました。基盤モデルのGPT-5 Embodiedは3兆パラメータを持ち、そのうち450億パラメータがロボット制御に特化しています。

安全性についても徹底的に配慮されています。ISO 10218-1(産業用ロボット安全規格)に完全準拠し、人間検知後わずか0.08秒で全動作を停止します。熱画像と骨格推定を組み合わせた人間検知AIは99.97%の検知精度を誇り、人間との協働作業における安全性を確保しています。

商用化への道筋と今後の展望

Boston DynamicsとOpenAIは、2027年第2四半期に商用リースを開始する予定です。価格は月額12,000ドル(5年リース、メンテナンス込み)と設定され、2028年末までに全世界で5,000台の導入を目標としています。2026年第4四半期からは、DHLやFedExでパイロットプログラムが開始される予定です。

{IMAGE_4}

McKinseyの試算によれば、2030年までに物流作業の45%が自動化可能とされており、Atlas-GPTはその実現を加速させる存在となるでしょう。さらに、物流業界だけでなく、製造業、建設業、災害救助への応用も計画されています。

特に注目すべきは、2026年第3四半期に基本的なVLAモデルの推論コードがApache 2.0ライセンスでオープンソース化される予定である点です。これにより、研究機関や開発者コミュニティがこの技術をベースにさらなる革新を生み出すことが期待されます。

Atlas-GPTは、ロボット導入における「プログラミングの壁」を破壊し、中小企業でも導入可能な汎用性の高いソリューションです。汎用人工知能(AGI)に向けた重要なマイルストーンとして、物理世界での推論能力を実証したこのプロジェクトは、今後のロボティクス分野に大きな影響を与えることは間違いないでしょう。

コメント

タイトルとURLをコピーしました