Perusahaan teknologi seperti Google, OpenAI, dan Microsoft bersatu dan menandatangani kesepakatan, berjanji untuk membangun AI dengan aman.
Jika keterampilan yang mereka kerjakan tampak terlalu tidak sehat, mereka bersedia dan terlibat untuk menunda proyek tersebut.
16 perusahaan yang berhasil menyelamatkan sudah secara sukarela mendedikasikan diri untuk penyelesaian tersebut, dengan lebih banyak perusahaan diperkirakan akan bergabung saat ini..
KTT AI Seoul dimulai dengan sangat modern. Raksasa teknis utama seperti Google, Microsoft, dan OpenAI menandatangani perjanjian penting pada hari Selasa yang bertujuan untuk mengembangkan keterampilan AI dengan aman. Mereka bahkan berjanji akan menunda proyek-proyek yang tidak dapat dikembangkan tanpa ancaman.
“Ini adalah yang pertama di dunia yang berhasil menyelamatkan begitu banyak perusahaan AI terkemuka dari berbagai belahan dunia yang semuanya menyetujui komitmen yang sama terhadap keamanan AI.” – Rishi Sunak, Menteri Utama Inggris
PM Inggris lebih lanjut menambahkan bahwa setelah penyelesaian ini dilakukan secara regional, maka akan tercapai penentuan perusahaan AI terbaik di dunia , yaitu kontributor terbaik untuk pengembangan AI kini akan memiliki lebih banyak transparansi dan akuntabilitas .
Sangat penting bagi modern bahwa perjanjian ini hanya berlaku untuk 'perangkat perbatasan', yang mengacu pada keterampilan yang mendukung program AI generatif seperti ChatGPT .
Lebih Lanjut Tentang Perjanjian AI Summit Seoul
Perjanjian terbaru ini merupakan sebuah catatan yang sama dengan perjanjian yang dibuat oleh perusahaan-perusahaan tersebut di atas pada bulan November lalu di UK AI Safety Summit di Bletchley Park, Inggris, di mana mereka berjanji untuk memitigasi risiko yang menyertainya. AI sama berharganya dengan tidak diragukan lagi.
16 perusahaan penyelamat telah membuat komitmen sukarela terhadap perjanjian ini bersama dengan Amazon dan Mistral AI . Lebih banyak perusahaan dari negara-negara seperti Tiongkok, Inggris, Prancis, Korea Selatan, UEA, AS, dan Kanada diharapkan memperhatikan perubahan tersebut dengan cerdas.
Perusahaan-perusahaan yang belum berkomitmen terhadap pakta tersebut kemungkinan besar akan mengembangkan kerangka keamanan mereka dan merinci cara mereka berpikir untuk mencegah perangkat AI mereka disalahgunakan oleh penjahat.
Kerangka kerja ini juga akan menyelamatkan sesuatu yang disebut 'jejak merah' yang diuji dengan risiko yang tidak dapat ditoleransi .
Jika model memiliki hubungan “garis merah” (mirip dengan serangan siber atau ancaman senjata biologis), perusahaan yang bersangkutan akan mengaktifkan tombol penghapusan, yang berarti pergerakan model tersebut akan berhenti sepenuhnya.
Perusahaan-perusahaan yang diselamatkan juga setuju untuk mengambil keputusan mengenai kerangka kerja ini dari aktor-aktor yang diandalkan, seperti pemerintah pusat mereka, lebih cepat daripada mewujudkan konsep besar tersebut pada pertemuan puncak AI berikutnya yang telah dijadwalkan di Prancis pada awal tahun 2025.
Apakah OpenAI Sebenarnya Perusahaan AI yang Mengutamakan Keselamatan?
OpenAI, yang tidak diragukan lagi merupakan salah satu kekuatan pemanfaatan AI terbaik di dunia, adalah penandatangan yang sangat penting dalam perjanjian yang disebutkan di atas. Namun, perkembangan terkini di perusahaan ini menyiratkan bahwa mereka kini mengambil langkah bantuan dalam hal keamanan AI.
Contoh Pertama: Penerapan Komando AI Tanpa Izin
Cantik hanya beberapa hari sebelumnya, OpenAI mendapat kritik keras setelah pengguna menyadari AI 'Sky'-nya setara dengan Scarlett Johansson . Ini terjadi setelah aktris tersebut secara resmi menolak melisensikan ceritanya ke OpenAI.
Contoh ke-2: Membubarkan Grup Keamanan AI
Parahnya lagi, OpenAI kini telah membubarkan AI Safety Group miliknya, yang dibentuk pada Juli 2023 dengan tujuan menyelaraskan AI dengan kepentingan manusia. Kelompok pekerja ini pernah bersalah karena menjamin bahwa program AI yang dikembangkan oleh perusahaan tersebut tidak akan melampaui atau mengganggu kecerdasan manusia.
Contoh Ketiga: Pejabat Tinggi Mengundurkan Diri
Pejabat tinggi OpenAI, bersama dengan salah satu pendiri Ilya Sutsveker dan salah satu kepala tim pekerja superalignment GPT-4o Jan Leike mengundurkan diri pada hari Jumat lalu di jam-jam sibuk kecuali pada jam-jam lainnya.
Sejujurnya, Leike menjelaskan sebagian keadaan sekitar pengunduran dirinya. Anehnya, dia pernah mengalami ketidakadilan dengan prinsip-prinsip inti dewan OpenAI modern. Ia lebih lanjut menggarisbawahi bahwa bahaya dari pengembangan program AI lebih fenomenal dibandingkan otak manusia, dan bahwa OpenAI tidak peduli dengan risiko keamanan ini.
Semua insiden ini mengarah pada satu hal : OpenAI mengembangkan program yang penghentiannya sekarang tidak diterima secara efektif oleh banyak insinyur dan penasihat keamanan. Program-program ini akan menjadi lebih fenomenal daripada yang dapat dipahami oleh otak manusia dan oleh karena itu kemampuan-kemampuan bencana pribadi harus dibatasi.
Aturan Meningkatnya AI Bulat
Sejak AI memperoleh reputasi, pemerintah dan institusi di seluruh dunia sangat marah dengan risiko yang terkait dengannya. Oleh karena itu, kami hanya mempertimbangkan beberapa aturan yang diterapkan dalam pengembangan dan pelaksanaan program AI.
Pameran Amerika Serikat baru-baru ini memperkenalkan RUU Hak AI yang bertujuan untuk mengembangkan AI dengan menegaskan kesetaraan, transparansi, dan privasi, serta memprioritaskan pilihan manusia.
UE telah memperkenalkan solusi modern untuk AI yang akan mulai berlaku bulan depan. Solusi-solusi ini hampir pasti akan relevan untuk setiap program AI dengan ancaman berlebihan dan motif umum, dengan ketidakadilan yang ideal adalah bahwa solusi tersebut hampir pasti akan sedikit lebih lunak untuk program AI.
Setiap perusahaan AI harus memiliki lebih banyak transparansi dan jika mereka gagal memenuhi pedoman tersebut, mereka harus membayar biaya yang mungkin bervariasi antara 7,5 juta euro atau 1,5% dari omset tahunan mereka hingga 35 juta euro atau 7% dari omset dunia, menurut perhitungan. pada tingkat keparahan pelanggaran.
Sesuai dengan kesepakatan antara kedua negara, Institut Keamanan AI AS dan Inggris akan bermitra satu sama lain dalam tinjauan keamanan, pembelajaran, dan panduan untuk keamanan AI.
Pertemuan Tren Amerika Serikat pada bulan Maret 2024 mengadopsi resolusi mengenai AI yang mendorong negara-negara di seluruh dunia untuk memberikan perlindungan terhadap hak-hak warga negaranya dalam menghadapi meningkatnya kekhawatiran akan AI. Perjanjian tersebut dilaksanakan sekaligus pada peresmian yang diusulkan oleh AS dan didukung oleh lebih dari 120 negara.
Secara keseluruhan, meskipun informasi bahwa negara-negara di seluruh dunia mengakui risiko dan tanggung jawab yang ditimbulkan oleh AI masih belum jelas, akan lebih baik jika kita benar-benar menerapkan kebijakan asuransi dan agen rahasia agar peraturan dipatuhi dengan ketat.
Tugas Editorial Kami
Perlindungan editorial Tech File berpusat pada pemberian komentar yang mendasar dan benar yang memberikan nilai pasti bagi pembaca kami. Kami hanya bekerja dengan penulis terampil yang menyimpan informasi yang tidak jelas tentang topik yang mereka liput, bersama dengan sebagian besar perkembangan baru dalam keterampilan, privasi online, mata uang kripto, instrumen, dan banyak lagi. Perlindungan editorial kami memastikan bahwa setiap topik diteliti dan dikurasi oleh editor internal kami. Kami memiliki standar jurnalistik yang ketat, dan setiap artikel 100% ditulis oleh penulis yang setia .
Pada acara KFF Health News yang bertajuk “What the Health?,” kepala koresponden Washington Julie Rovner duduk bersama Atul Grover dari Asosiasi Fakultas Ilmiah Amerika untuk berbincang tentang evaluasi baru yang menunjukkan bahwa mahasiswa kedokteran yang lulus menghindari praktik di negara bagian yang melarang aborsi dan pembatasan yang dominan. Di antara mereka yang mendaftar untuk residensi tahun ini, hal ini menjadi tidak memihak tidak lagi hanya bagi calon OB-GYN dan orang lain yang terus merawat pasien hamil, tetapi untuk semua spesialisasi.
Empat belas negara bagian, terutama di Midwest dan Selatan, telah melarang hampir semua aborsi. Evaluasi yang tidak biasa yang dilakukan oleh AAMC menemukan bahwa pilihan pemohon untuk permohonan izin tinggal di negara-negara bagian yang sudah menerapkan larangan aborsi total menurun sebesar 4,2%, dibandingkan dengan penurunan sebesar 0,6% di negara-negara bagian yang melakukan aborsi tetap.
Dapatkan lebih banyak laporan kami tentang metodologi pola untuk pekerjaan medis di sini .
Seorang pria menyerang teman wanitanya di dalam Portillo's di sisi utara mal menghadap Elmhurst Crossing, Rabu pagi, menurut informasi yang dimulai dari Divisi Polisi Elmhurst.
Orang dan gadis sebenarnya adalah bagian dari kru pembersihan subkontrak yang bekerja di restoran, yang terletak di 155 S. IL Route 83, Elmhurst.
Polisi Elmhurst, bersama dengan kantor polisi tetangga dan Kru Investigasi dan Tanggap Darurat Metropolitan DuPage County, menanggapi panggilan tersebut sekitar pukul 5:30 pagi, setelah korban dan wanita lainnya yang terlibat dalam kru pembersihan melarikan diri dari restoran dan memberi tahu pengendara yang lewat.
Di sana, petugas terlibat dalam konfrontasi selama hampir tiga jam dengan pria berusia 32 tahun yang telah punah tersebut. Menurut polisi, petugas memasuki restoran sekitar pukul 8:30 pagi, di mana mereka menemukan orang tersebut tergeletak di tanah karena luka yang jelas-jelas diakibatkan oleh dirinya sendiri.
Paramedis kemudian memindahkan orang tersebut, dalam kondisi yang tidak diketahui, ke rumah sakit. Menanggapi polisi, korban menunjukkan bukti penyerangan dan mengalami luka ringan.
Pusat Pengamatan Elmhurst, yang telah ditutup selama kejadian, dibuka kembali pada pukul 09:30, sedangkan Portillo tetap ditutup karena teknisi bukti menyelidiki tempat kejadian.