Apakah Anda tertarik pada mereka? PENAWARAN? Hemat dengan kupon kami ADA APA o Telegram!

OpenAI membentuk tim untuk risiko 'bencana' AI. Itu sebabnya ini menjadi perhatian kami

OpenAI, sebuah perusahaan yang kini berada di garis depan di bidang kecerdasan buatan, baru-baru ini mengumumkan pembentukan tim baru dengan tugas khusus mengevaluasi dan memitigasi potensi risiko bencana yang terkait dengan kemajuan teknologi terkait AI. Langkah ini menyoroti semakin pentingnya upaya proaktif mengatasi tantangan dan bahaya yang ditimbulkan oleh model generatif. Tentu saja, mereka tidak diawasi dengan baik.

Identifikasi risiko oleh OpenAI

Seiring dengan berkembangnya kecerdasan buatan dengan pesat, muncullah risiko-risiko baru yang dapat berdampak parah pada skala global. Untuk hal ini, tim persiapan OpenAI yang baru akan mendedikasikan dirinya untuk itu untuk melacak, untuk mengevaluasi, meramalkan e untuk melindungi terhadap potensi masalah ini. Di antara risiko yang teridentifikasi adalah: ancaman nuklir, sebuah tema yang menyoroti pentingnya tindakan yang bertanggung jawab di bidang AI.

Selain ancaman nuklir, tim juga akan fokus pada bahaya yang berhubungan dengan zat kimia, biologi dan radiologi, serta ffenomena replikasi diri dari kecerdasan buatan, atau kemampuan sistem kecerdasan buatan untuk mereplikasi dirinya sendiri secara mandiri. Area fokus lainnya mencakup kemampuan AI untuk menipu manusia dan ancaman untuk keamanan cyber.

Manfaat dan tantangan AI tingkat lanjut

OpenAI menyadari bahwa model AI terdepan, yang melampaui kemampuan model tercanggih yang ada, mempunyai potensi untuk mencapai hal tersebut bermanfaat bagi seluruh umat manusia. Dan tidak, bertentangan dengan apa yang Anda pikirkan, ituKecerdasan buatan hadir bukan untuk mencuri pekerjaan kita melainkan, untuk menciptakannya.

Namun, dengan kekuatan yang besar, juga terdapat tanggung jawab yang besar. Oleh karena itu penting untuk dikembangkan kebijakan diberitahu tentang risikonya, yang memungkinkan Anda melakukannya mengevaluasi dan memantau model AI, untuk memastikan bahwa manfaatnya lebih besar daripada risiko yang terkait.

openai menawarkan hadiah untuk menemukan bug di chatgpt

Baca juga: DeepMind memiliki solusi untuk mencegah risiko AI

Kepemimpinan tim baru ini telah dipercayakan kepada Alexander Madry, tokoh terkemuka di bidang pembelajaran mesin. Saat ini sedang cuti darinya peran direktur Pusat Pembelajaran Mesin yang Dapat Diterapkan MIT, Bijak akan mengoordinasikan upaya untuk mengembangkan dan memelihara kebijakan pembangunan yang berbasis risiko.

Menuju prioritas global

CEO OpenAI, sam altman, itu bukan hal baru hingga kekhawatiran mengenai potensi risiko bencana AI. Ia menyarankan agar penanganan teknologi AI harus dilakukan pdianggap sama seriusnya dengan senjata nuklir, menyoroti perlunya upaya kolektif untuk memitigasi risiko kepunahan yang terkait dengan AI. Tim baru ini mewakili langkah konkrit untuk mewujudkan visi ini, menyoroti komitmen OpenAI untuk berkontribusi pada a manajemen Kecerdasan Buatan yang bertanggung jawab.

Gianluca Cobucci
Gianluca Cobucci

Bergairah tentang kode, bahasa dan bahasa, antarmuka manusia-mesin. Segala sesuatu tentang evolusi teknologi menarik bagi saya. Saya mencoba untuk mengungkapkan hasrat saya dengan sangat jelas, mengandalkan sumber yang dapat dipercaya dan bukan "on the first pass".

berlangganan
memberitahu
tamu

0 komentar
Masukan Inline
Lihat semua komentar
XiaomiToday.it
logo