Google、OpenAI、Microsoft Salvage に似たテクノロジー企業が集結し、AI を安全に構築することを約束して和解に署名しました。 彼らが取り組んでいるスキルがあまりにも不健全であると思われる場合、彼らはプロジェクトのシャッフルを引き延ばすことをいとわず、積極的に取り組んでいます。 すでに16社のサルベージ企業が自発的に和解に尽力しており、現時点ではさらに多くの企業が和解に参加すると予想されている。
ソウルAIサミットは 過剰な現代性で始まった。 Google、Microsoft、OpenAI などの主要技術大手は火曜日、AIスキルを安全に構築することを目的とした画期的な和解に署名した。彼らは、脅威なしには開発できないプロジェクトのシャッフルを引き延ばすことさえ約束しました。
「世界中のこれほど多くの主要な AI 企業が、AI セキュリティに関して同じ取り組みに同意しているのを救出するのは世界初のことです。」 – リシ・スナック、英国トップ大臣
英国首相はさらに、この和解が地域ごとに行われたことで、環境内で最も偉大なAI企業の 、つまりAI開発への理想的な貢献者はより透明性と説明責任を果たせる 。
ChatGPT を 愛する生成 AI プログラムを強化するスキルを指す「フロンティア デバイス」に適用されること は、現代人にとって非常に重要です。
AIサミットソウル協定の詳細 最も新しい和解は、昨年11月に英国のブレッチリーパークで開催された英国AI安全サミットで上記の企業が結んだ協定と同じくらい注目すべきもので、そこで両社は、AI側に付随するリスクを軽減すると約束した。 AI は間違いなく価値があります。
Mistral AI と協力してこの協定に自発的に取り組んでいます 。中国、英国、フランス、韓国、アラブ首長国連邦、米国、カナダを愛する国のより多くの企業が、賢明なシャッフルに注目すると予想されます。
これらの協定にまだ取り組んでいない企業は、ほぼ間違いなくセキュリティ フレームワークを強化し、AI デバイスが悪者による悪用を防ぐ方法を詳しく説明することになるでしょう。
耐えられないリスクを伴うテストである「クリムゾン・トレース」 として知られるものを救い出すことになります。
マネキンに「深紅の線」が関係している場合(コンピュータ化されたサイバー攻撃 や生物兵器の脅威と同様)、それぞれの企業は廃棄スイッチを作動させ、その特定のマネキンの前進が完全に停止するように計画します。
さらに、サルベージ企業はこれらの枠組みに関する解決策を講じることに 同意した。
OpenAI は実際には安全第一の AI 企業ですか? OpenAI は、間違いなく、環境内で AI を活用する理想的な力の 1 つであり、上記の和解への極めて重要な署名者です。繰り返しになりますが、同社における最近の出来事は、同社が AI セキュリティに関して一歩支援を行っていることを意味しています。
第一例:無許可のAIコマンドの行使 ほんの数日前、OpenAI はその「Sky」 AI がスカーレット・ヨハンソンに匹敵すると 。これは、女優がOpenAIに自分の発言をライセンスすることを正式に拒否した後に行われた。
2D インスタンス: AI 安全グループの解散 さらに悪いことに、OpenAI はAI 安全グループを解散しました。 、2023 年 7 月に設立され、AI と人間の利益を調整する機能を備えたグループに変わりました。この労働者チームは、会社の廃止によって開発された AI プログラムが人間の知性を超えたり、人間の知性を損なったりしないことを保証するという罪を犯したことになります。
第三の事例: 最高幹部の辞任 GPT-4o ヤン・ライケ氏とともに、最後の金曜日、 他の時間を除いて驚異的な時間で辞任した。
誠実に、ライクは辞任を決定づけた状況の一部を説明した。奇妙なことに、彼はかつては現代の OpenAI 理事会の中核原則に対して不公平な立場にありました。同氏はさらに、AIプログラムが人間の脳よりも驚異的に成長することの危険性と、OpenAIがこうしたセキュリティリスクを気にしていないことを強調した。
これらすべての事件が導いていることは 1 つあります 。それは、OpenAI が成長させているプログラムが、多くのセキュリティ エンジニアやアドバイザーに効果的に受け入れられていないことです。これらのプログラムは人間の脳が理解できる以上に驚異的なものとなるため、個人の壊滅的な能力は抑制されなければなりません。
ライジングルール球体AI AI の評判が高まって以来、世界中の政府や機関は AI に関連するリスクに悩まされてきました。そのため、私たちは AI プログラムの進歩と実行に課されるいくつかのルールを適度に検討してきました。
米国の見本市では本日、 公平性、透明性、プライバシーを確認し、人間の代替選択を優先することによって AI を構築することを目的とした AI 権利法案が導入されました。 EU は AI 向けの最新ソリューション領域を導入し 、来月発効します。これらのソリューションは、ほぼ間違いなく、あらゆる過度の脅威や一般的な動機の AI プログラムに関連しており、理想的な不平等は、ソリューションが後者に対してほぼ確実にもう少し寛大になることです。 すべての AI 企業は透明性を高める必要があり 、指針を満たさない場合は、年間売上高の 1.5% にあたる 750 万ユーロから、世界売上高の 7% にあたる 3,500 万ユーロまで変動する可能性のある報酬を支払わなければなりません。違反の深刻さについて。 両国間の和解 に従い AI セキュリティに関するセキュリティのレビュー、学習、指導に関して相互に提携することになります 2024 年 3 月に開催された世界各地のトレンド会議では、 AI に関する決議が採択されまし た。この和解案は米国が提案し、120カ国以上が支持し、就任式で一度の合意となる。総合すると、環境全体の国々が AI に伴うリスクと責任を認識しているというのはまったくのよちよち情報ですが、実際にこれらの保険契約を施行し、ルールが厳格に遵守されるように潜入捜査員を派遣することを義務付けることの方が価値があります。
私たちの編集任務Tech File の編集保護は 、読者に確固たる価格を提供する、主要で正しい発言を提供することに重点を置いています。私たちは、スキル、オンライン プライバシー、暗号通貨、手段などのほとんどの新しい開発と関連して、対象分野のつぶやき情報を回収する熟練したライターと協力します。当社の編集保護により、すべてのトピックが社内編集者によって調査され、厳選されます。私たちは個人的に厳格なジャーナリズム基準を遵守しており、すべての記事は 100%信頼できる著者 。