اجتمعت شركات التكنولوجيا مثل Google وOpenAI وMicrosoft إنقاذ ووقعت على تسوية، ووعدت ببناء الذكاء الاصطناعي بأمان.
وفي حال بدت المهارات التي كانوا يعملون عليها غير صحية للغاية، فإنهم على استعداد للمشاركة في المشاريع.
تم بالفعل تخصيص 16 شركة إنقاذ للتسوية، ومن المتوقع انضمام المزيد من الشركات في الوقت الحالي.
بدأت قمة سيول للذكاء الاصطناعي بشكل حديث للغاية . شركات التقنية الكبرى مثل Google وMicrosoft وOpenAI اتفاقية تاريخية يوم الثلاثاء تهدف إلى بناء مهارات الذكاء الاصطناعي بأمان. حتى أنهم وعدوا بسحب المراوغة من المشاريع التي لا يمكن تطويرها دون تهديد.
"إنها المرة الأولى في العالم التي يتم فيها إنقاذ هذا العدد الكبير من شركات الذكاء الاصطناعي الرائدة من العديد من أنحاء العالم المتنوعة التي توافق جميعها على نفس الالتزامات بشأن أمن الذكاء الاصطناعي." – ريشي سوناك، رئيس وزراء المملكة المتحدة
وأضاف رئيس الوزراء البريطاني أيضًا أنه بعد أن أصبحت هذه الاتفاقية منطقة في المنطقة، فإنها ستحدد أفضل شركات الذكاء الاصطناعي في العالم ، أي أن المساهمين المثاليين في تطورات الذكاء الاصطناعي سيتمتعون الآن بمزيد من الشفافية والمساءلة .
من المهم بالنسبة للعصر الحديث أن تنطبق هذه التسوية فقط على "الأجهزة الحدودية"، والتي تشير إلى المهارات التي تدعم برامج الذكاء الاصطناعي التوليدية مثل ChatGPT .
المزيد عن اتفاقية سيول لقمة الذكاء الاصطناعي
إن التسوية الجديدة هي بمثابة مذكرة، مثلها مثل الاتفاقية التي أبرمتها الشركات المذكورة أعلاه في نوفمبر الماضي في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في بلتشلي بارك، إنجلترا، حيث وعدت بالتخفيف من المخاطر التي تحيط بها. الذكاء الاصطناعي جدير بلا شك.
لقد التزمت 16 شركة إنقاذ بالفعل طوعًا بهذه الاتفاقية بالتعاون مع Amazon و Mistral AI . ومن المتوقع أن تلاحظ المزيد من الشركات من الدول التي تحب الصين والمملكة المتحدة وفرنسا وكوريا الجنوبية والإمارات العربية المتحدة والولايات المتحدة وكندا التعامل بذكاء مع هذه الشركات.
من المؤكد تقريبًا أن الشركات التي لم تلتزم بالفعل بهذه الاتفاقيات ستعمل على تطوير إطارها الأمني وتوضيح كيفية تصورها لمنع إساءة استخدام أجهزة الذكاء الاصطناعي الخاصة بها من قبل الأوغاد.
ستعمل هذه الأنظمة أيضًا على إنقاذ ما يسمى "الخطوط الحمراء" التي تواجه مخاطر لا تطاق .
إذا كان لدى النموذج اتصال "خط أحمر" (على غرار الهجمات الإلكترونية أو تهديد الأسلحة البيولوجية)، فستقوم الشركة المعنية بتنشيط مفتاح الإلغاء، مما يعني أن تقدم هذا النموذج المعين سيتوقف تمامًا.
علاوة على ذلك، وافقت شركات الإنقاذ على اتخاذ حلول بشأن هذه الأطر من جهات فاعلة موثوقة، مثل حكوماتها المحلية، قبل تحقيق الفكرة الكبيرة في قمة الذكاء الاصطناعي التالية المقرر عقدها في فرنسا في أوائل عام 2025.
هل OpenAI في الواقع شركة ذكاء اصطناعي للسلامة أولاً؟
تعد OpenAI، بلا شك واحدة من أفضل قوى استخدام الذكاء الاصطناعي في العالم، أحد الموقعين المهمين للغاية على الاتفاقية المذكورة أعلاه. ولكن مرة أخرى، يشير التحول الحديث للأحداث في الشركة إلى أنها تتخذ الآن خطوة مساعدة في حالة أمن الذكاء الاصطناعي.
المقام الأول: ممارسة أمر الذكاء الاصطناعي غير المرخص
قبل بضعة أيام فقط، تعرضت OpenAI لانتقادات شديدة بعد أن أدرك المستخدمون أن "Sky" AI يحكي ما يعادل سكارليت جوهانسون . يأتي هذا بعد أن رفضت الممثلة رسميًا ترخيص إخبارها لـ OpenAI.
الحالة الثانية: حل مجموعة أمان الذكاء الاصطناعي
والأسوأ من ذلك هو أن OpenAI قامت الآن بحل مجموعة أمان الذكاء الاصطناعي الخاصة بها، والتي تم تشكيلها في يوليو 2023 بهدف مواءمة الذكاء الاصطناعي مع المصالح البشرية. أصبح هذا الفريق من الموظفين مذنبين بضمان أن برامج الذكاء الاصطناعي التي طورتها الشركة لم تعد تتجاوز الذكاء البشري أو تزعجه.
الحالة الثالثة: استقالة كبار المسؤولين
كبار مسؤولي OpenAI، بالاشتراك مع المؤسس المشارك Ilya Sutsveker والرئيس المشارك لفريق المحاذاة الفائقة لموظفي GPT-4o Jan Leike الجمعة الماضية المذهلة باستثناء بعضهما البعض.
بصدق، وصف لايكي جزئيًا الظروف التي أحاطت باستقالته. من الغريب أنه كان يعاني من عدم المساواة مع المبادئ الأساسية للوحة OpenAI الحديثة. وشدد علاوة على ذلك على مخاطر تطوير برامج الذكاء الاصطناعي بشكل أكبر من الدماغ البشري، وأن OpenAI غير منزعجة من هذه المخاطر الأمنية.
تشير كل هذه الأحداث إلى شيء واحد : تقوم OpenAI بتطوير برامج لم يعد توقفها يشغل مقعدًا جيدًا مع العديد من مهندسي ومستشاري الأمان. ستكون هذه البرامج أكثر استثنائية مما يمكن للعقل البشري أن يستوعبه، وبالتالي القدرات الشخصية الكارثية التي يجب تقليصها.
القواعد الصاعدة كروية الذكاء الاصطناعي
منذ أن اكتسب الذكاء الاصطناعي سمعته، كانت الحكومات والمؤسسات في جميع أنحاء البيئة غاضبة من المخاطر المرتبطة به، ولهذا السبب قمنا بالنظر إلى حد ما في عدد قليل من القواعد التي يتم فرضها عبر تقدم برامج الذكاء الاصطناعي وممارستها.
قدم معرض الولايات المتحدة اليوم مشروع قانون حقوق الذكاء الاصطناعي الذي يهدف إلى بناء الذكاء الاصطناعي من خلال التأكيد على العدالة والشفافية والخصوصية، وإعطاء الأولوية للخيارات البشرية البديلة.
قدم الاتحاد الأوروبي منطقة حديثة من الحلول للذكاء الاصطناعي والتي ستدخل حيز التنفيذ الشهر المقبل. من المؤكد تقريبًا أن هذه الحلول ستكون ذات صلة بكل برامج الذكاء الاصطناعي ذات التهديدات المفرطة والدوافع العامة، مع عدم المساواة المثالية التي تتمثل في أن الحلول ستكون بالتأكيد أكثر تساهلاً مع البرامج الأخيرة.
يجب على كل شركة تعمل في مجال الذكاء الاصطناعي أن تتمتع بمزيد من الشفافية ، وإذا فشلت في تلبية المؤشرات، فسوف يتعين عليها دفع مبلغ قد يتراوح بين 7.5 مليون يورو أو 1.5% من مبيعاتها السنوية إلى 35 مليون يورو أو 7% من مبيعاتها العالمية، على حسب تقديرها. حول خطورة الانتهاك.
وفقًا للتسوية المبرمة بين البلدين، ستتعاون معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة مع بعضها البعض في المراجعات الأمنية والتعلم والتوجيه لأمن الذكاء الاصطناعي.
اجتماع الاتجاه العالمي المتحد في مارس 2024 قرارًا بشأن الذكاء الاصطناعي يشجع البلدان في جميع أنحاء العالم على توفير الحماية لحقوق مواطنيها في مواجهة المخاوف المتزايدة بشأن الذكاء الاصطناعي. تصبح التسوية مرة واحدة عند الافتتاح الذي اقترحته الولايات المتحدة وأيدته أكثر من 120 دولة.
بشكل عام، على الرغم من أنه من غير الواضح تمامًا أن البلدان في جميع أنحاء العالم تدرك المخاطر والمسؤوليات التي تأتي مع الذكاء الاصطناعي، إلا أنه من الجدير أكثر إلزامًا في الواقع تنفيذ سياسات التأمين هذه والوكيل السري لها الذي يتم اتباع القواعد بدقة.
مهمتنا التحريرية
الحماية التحريرية لـ Tech File على تقديم ملاحظة أساسية وصحيحة توفر قيمة عالية لقرائنا. نحن نعمل فقط مع كتاب ماهرين ينقذون المعلومات المزعجة في الأمور التي يغطونها، جنبًا إلى جنب مع معظم التطورات الجديدة في المهارات، والخصوصية عبر الإنترنت، والعملات المشفرة، والأدوات، والمزيد. تضمن حمايتنا التحريرية أن يتم بحث كل موضوع وتنظيمه بواسطة المحررين الداخليين لدينا. نحن نمتلك معايير صحفية صارمة، وكل مقال مكتوب بنسبة 100% بواسطة مؤلفين مخلصين .
في برنامج "ما الصحة؟" على قناة KFF Health News، جلست جولي روفنر، كبيرة مراسلي واشنطن، مع أتول غروفر من رابطة الكليات العلمية الأمريكية للدردشة حول تحليلها الجديد الذي يظهر أن طلاب كلية الطب المتخرجين يتجنبون ممارسة المهنة في الولايات التي تحظر الإجهاض و القيود السائدة. من بين أولئك الذين تقدموا للإقامات هذا العام، لم يعد ذلك مستقلاً فحسب بالنسبة لأطباء أمراض النساء والتوليد الطموحين وغيرهم ممن يعالجون المرضى الحوامل بشكل مطرد، ولكن لجميع التخصصات.
هناك أربع عشرة ولاية، تقع أساسًا في الغرب الأوسط والجنوب، تحظر جميع عمليات الإجهاض تقريبًا. التقييم غير العادي الذي أجرته AAMC أن خيار المتقدمين لطلبات الإقامة في الولايات التي فرضت حظرًا إجماليًا على الإجهاض مقدمًا انخفض بنسبة 4.2%، في حين أنه على النقيض من الانخفاض بنسبة 0.6% في الولايات، يظل الإجهاض مناسبًا.
قم بتأمين المزيد من تقاريرنا حول ماهية هذا النمط من المنهجية للمهنة الطبية هنا .
هاجم رجل صديقته داخل بورتيلو على الجانب الشمالي من مركز التسوق Elmhurst Crossing، صباح الأربعاء، بناءً على بلاغ من قسم شرطة Elmhurst.
كان الشخص والفتاة الفعليان جزءًا من طاقم تنظيف متعاقد من الباطن يعمل في المطعم الواقع في 155 S. IL Route 83، Elmhurst.
استجابت شرطة إلمهورست، جنبًا إلى جنب مع وكالات الشرطة المجاورة وطاقم الاستجابة للطوارئ والتحقيق في مقاطعة دوباج، لمكالمة في حوالي الساعة 5:30 صباحًا، بعد أن هربت الضحية وامرأة أخرى تعمل في طاقم التنظيف من المطعم وأبلغوا سائق سيارة عابر.
هناك، انخرط الضباط في مواجهة استمرت ثلاث ساعات تقريبًا مع الرجل المنقرض البالغ من العمر 32 عامًا. ردًا على الشرطة، دخل الضباط المطعم حوالي الساعة 8:30 صباحًا، حيث عثروا على الشخص ملقى على الأرض متأثرًا بجروح واضحة أصاب نفسه بها.
وقام المسعفون في وقت لاحق بنقل الشخص، في حالة غير معروفة، إلى مؤسسة طبية. ورداً على الشرطة، أظهر الضحية دليلاً على الاعتداء وأصيب بجروح طفيفة.
أعيد فتح مركز مراقبة إلمهورست، الذي كان مغلقًا طوال فترة وقوع الحادث، في الساعة 9:30 صباحًا، بينما ظل مركز بورتيلو مغلقًا بينما يقوم فنيو الأدلة بالتحقيق في مكان الحادث.