テクノロジー
について警鐘が鳴り響く中 人工知能 (AI)がわれわれを絶滅に向かわせるということは、AIがロボットを設計するプロセスを、フランケンシュタインがターミネーターを作るようなもの、あるいはその逆と想像することもできるだろう!
しかし、未来のある時点で、ディストピア的であろうとなかろうと、私たちがロボットを設計する必要があるとしたらどうだろう。 機械と協力する 問題解決のために?その共同作業はどのように行われるのだろうか?誰がボスになり、誰が従順になるのか?
Netflixのディストピアシリーズを何話も見てきた ダークミラーアーサー・C・クラークの『ダーク・ミラー』も一緒に。2001年宇宙の旅“、私はマシンがボスであることに賭ける。
しかし、ヨーロッパの研究者が実際に行ったこの種の実験では、機械と人間の共同作業に大きな影響を与える可能性のある、いくつかの特徴的な結果が出た。
のコジモ・デッラ・サンティーナ助教授と博士課程の学生フランチェスコ・ステッラは、次のような結果を得た。 デルフト工科大学スイス工科大学のジョシー・ヒューズと スイス連邦工科大学を実施した。 実験と共同でロボットを設計する チャットGPT 大きな社会問題を解決した
「ChatGPTは単なるロボットではなく、実際に役に立つロボットをデザインしたかったのです。 ネイチャー・マシン・インテリジェンス.
こうして、研究者たちとボットとの間で、2つのグループが一緒に何を設計できるかを探るための一連の質疑応答が始まった。
また 最高のAIチャットボット:ChatGPTとその他の注目すべき代替サービス
ChatGPTのような大規模言語モデル(LLM)は、膨大な量のテキストやデータを処理する能力に関しては絶対的な獣であり、首尾一貫した回答を猛烈なスピードで吐き出すことができます。 スピード.
ChatGPTが技術的に複雑な情報を扱うことができるという事実は、ChatGPTをさらに素晴らしいものにしている。
テクノロジー 機械と働く
ChatGPTがヨーロッパの研究者から、人類社会が直面している課題をいくつか挙げるよう求められたとき、AIは将来の安定した食料供給の問題を指摘した。
ChatGPTは、ロボットが栽培・収穫できる作物としてトマトを選んだ。
これは、AIのパートナーが真価を発揮した分野のひとつである。農業など、人間のパートナーが実際の経験を持たない分野で提案を行うことである。自動化にとって最も経済的価値のある作物を選ぶには、科学者による時間のかかる調査が必要だった。
“Chat-GPTは言語モデルであり、そのコード生成はテキストベースであるにもかかわらず、物理設計のための重要な洞察と直観を提供し、人間の創造性を刺激するサウンドボードとして大きな可能性を示した。” とは EPFLのヒューズ
そして人間は、ChatGPTが提供する選択肢に基づいて、目標を追求するために最も興味深く適切な方向を選択する責任を負う。
テクノロジー インテリジェント・デザイン
ChatGPTが真価を発揮したのは、トマトの収穫方法の考案だった。トマトやそれに似たデリケートな果物–そう、トマトは野菜ではなく果物なのだ–は、収穫に関して最大の難題を突きつけてくる。
人間がトマトを傷つけずに収穫する方法について質問されたとき、ボットは期待を裏切らず、独創的で有用な解決策をいくつか生み出した。
ChatGPTは、トマトに接触する部品は柔らかく柔軟でなければならないと考え、シリコンやゴムを材料の選択肢として提案した。ChatGPTはまた、これらの柔らかい手を構築する方法として、CADソフトウェア、金型、3Dプリンタを指摘し、デザインオプションとして爪やスクープ形状を提案しました。
また:Bing Chatやその他のAIチャットボットを使う7つの方法
その結果は印象的だった。このAIと人間のコラボレーションは、トマトを器用に収穫できるロボットの設計と製造に成功した。
テクノロジー パートナーシップの危険性
このユニークなコラボレーションはまた、人間とマシンのデザイン・パートナーシップでますます顕著になるであろう多くの複雑な問題をもたらした。
ChatGPTとのパートナーシップは、問題解決への真に学際的なアプローチを提供します。しかし、パートナーシップの構成次第では、それぞれが重大な意味を持つ、異なる結果をもたらす可能性があります。
例えば、LLMが特定のロボット設計に必要なすべての詳細を提供し、人間は単に実装者として行動することができる。このアプローチでは、AIが発明者となり、専門家ではない素人がロボット設計に携わることができる。
この関係は、研究者たちがトマト収穫ロボットと経験したことに似ている。彼らはコラボレーションの成功に唖然としたが、創造的な仕事の多くを機械が行っていることに気づいた。「エンジニアとしての私たちの役割は、より技術的な仕事をこなすことにシフトしていることに気づきました」。 とはステラ
人間がコントロールできないところに危険が潜んでいることも考慮する価値がある。我々の研究では、Chat-GPTはトマトをロボットハーベスターにとって “最も価値のある “作物として特定しました」とEPLFのヒューズ氏は言う。
「しかし、これは本当に必要な作物ではなく、文献で多く取り上げられている作物に偏っている可能性があります。技術者の知識の範囲外で決定が下されると、倫理的、工学的、あるいは事実上の重大な誤りにつながる可能性がある。”
また AIの安全性とバイアス:AIトレーニングの複雑な連鎖を解く
この懸念は、一言で言えば、LLMを使うことの重大な危険性のひとつである。彼らの一見奇跡的な質問への回答は、ある種のコンテンツを与えられ、その一部を復唱するように求められたからこそ可能なのであり、それは今日でも多くの社会が依存している古典的な教育スタイルのようなものだ。
回答は本質的に、システムを設計した人々のバイアス(良くも悪くも)と、与えられたデータを反映する。このバイアスは、女性や有色人種など、社会の一部の人々が歴史的に疎外されてきたことが、しばしばLLMでも再現されることを意味する。
そして、次のような厄介な問題がある。 幻覚ChatGPTのようなLLMでは、AIは簡単な答えのない問題に直面すると、単に物事をでっち上げる。
所有権のある情報が許可なく使用されるという、ますます茨の道となっている問題もあります。 訴訟 Open AIに対して起こされた訴訟が暴露され始めた。
また:ChatGPT vs. Bing Chat:どちらのAIチャットボットを使うべきか?
とはいえ、LLMがよりサポート的な役割を果たすような公平なアプローチは、ボットなしでは育まれなかったような重要な学際的つながりが生まれることを可能にし、豊かで生産的なものになりうる。
つまり、宿題やスクリーンタイムに関連するすべての情報を丹念に再確認すること、そして特に、AIが口が達者なように聞こえるときはそうすることだ。