ロボットが人間レベルの器用さを獲得!Boston DynamicsとMITが触覚AI「NeuroGrasp」発表

ハック
Picsum ID: 433
記事のアイキャッチ画像
Photo by Lorem Picsum

ロボット工学における「聖杯」とされてきた人間レベルの器用さが、ついに実用レベルで実現されました。2026年1月15日、Boston DynamicsとMIT CSAILは、国際会議ICRA 2026のプレカンファレンスにて、革新的な触覚フィードバックシステム「NeuroGrasp」を発表しました。このシステムは次世代ヒューマノイドロボット「Atlas Gen 4」に搭載され、生卵やワイングラスなど壊れやすい物体を人間と同じように扱えることが実証されています。

革新的な触覚技術の詳細

NeuroGraspの最大の特徴は、その圧倒的なセンサー密度と応答速度にあります。各指には16,000個以上の圧力センサーが配置され、1mm²あたり25個というきめ細かさを実現。これは人間の指先に存在する触覚受容体の密度に匹敵します。

{IMAGE_2}

さらに驚異的なのは応答速度です。触覚フィードバックループがわずか0.8ミリ秒で完結するため、物体が滑り始めた瞬間を検知し、0.3ミリ秒以内に把持力を調整できます。従来のロボットハンドが15〜20ミリ秒を要していたことを考えると、これは20倍以上の高速化です。

ロボットの「指先」には生体模倣型シリコンゲルが使用され、人間の皮膚と同等の摩擦係数を持ちます。また、0.01N単位での精密な力制御が可能で、これにより繊細な物体の操作が実現されています。デモンストレーションでは、壊れやすい物体の操作成功率が97%に達し、従来技術の42%を大きく上回りました。

AIとの融合が生み出す「触って理解する」知能

NeuroGraspの真の革新性は、ハードウェアだけでなくソフトウェアにもあります。システムの中核には、1.2Bパラメータの「Tactile Transformer」と呼ばれる触覚専用の基盤AIモデルが搭載されています。

{IMAGE_3}

このAIは、470万回の把持シミュレーションと85,000時間の実機データから学習し、Vision-Language Model(VLM)と触覚データを統合することで、「触って理解する」能力を獲得しています。カメラで見た情報と触覚情報を組み合わせることで、初めて触る物体でも適切な把持方法を瞬時に判断できるのです。

さらに、温度センサーも統合されており、-20°Cから150°Cまでの物体を安全に取り扱えます。熱いコーヒーカップや冷凍食品など、温度が極端な物体でも適切に対応できる点は、実用上非常に重要です。

産業界を変革する応用可能性

NeuroGraspの応用範囲は広大です。製造業では、複雑な電子機器の組立作業や精密機械の製造が完全自動化できるようになります。これまで人間の器用さに依存していた作業も、ロボットが代替できる時代が到来します。

医療・介護分野では、高齢者の身体介助や手術支援ロボットの精度が劇的に向上します。患者の体に触れる際の繊細な力加減が可能になることで、より安全で快適なケアが提供できるでしょう。

{IMAGE_4}

農業分野でも革命が期待されています。イチゴやブドウなど、これまで機械化が困難だった繊細な果物の収穫が自動化できます。実際、果物の熟度を触覚で判断して選別するデモンストレーションも成功しています。

実用化のタイムラインと今後の展望

Boston Dynamicsは、2026年第3四半期に限定的な産業パートナーへのパイロット展開を開始し、2027年には製造業向けの商用版をリリース予定です。推定価格は1ユニット85,000ドルとされており、産業用ロボットとしては妥当な価格帯に設定されています。

さらに注目すべきは、2028年にはコンシューマー向け家事支援ロボットへの搭載も検討されていることです。家庭内で食器洗いや洗濯物の整理など、繊細な作業をロボットが担う未来が、もうすぐそこまで来ています。

ロボット工学の専門家たちは、NeuroGraspの登場により、ロボット技術が新たな段階に入ったと評価しています。人間とロボットが協働する社会の実現に向けて、大きな一歩が踏み出されたと言えるでしょう。

コメント

タイトルとURLをコピーしました