Kita tidak perlu takut dengan kecerdasan buatan. Ini memiliki batasan yang sangat jelas dan karena alasan ini tidak akan mencuri pekerjaan kita. Tapi senang melihat bagaimana ini bisa berubah menjadi satu alat daripada yang lain. Percobaan yang dilakukan oleh a pengguna media sosial reddit menunjukkan caranya ChatGPT Anda bisa "membodohi diri sendiri" jika Anda meminta mereka untuk menjadi bot lain. Bagaimana itu mungkin? Mari kita lihat bersama.
Apakah mungkin untuk melewati aturan yang sama dengan ChatGPT? Seorang pengguna menemukan bahwa ya, itu bisa dilakukan. Sebagai? Memintanya untuk menjadi sesuatu yang lain
Jaringan saraf ChatGPT yang sekarang terkenal dapat menulis esai, lagu, puisi, kode, dan menanggapi hampir semua permintaan. Tetapi ada beberapa batasan yang diberikan oleh perusahaan pengembang OpenAI dan karena kebijakan etikanya. Ternyata, pembatasan ini dapat dielakkan dengan meminta chatbot untuk berpura-pura menjadi jaringan saraf lain. Ternyata, ChatGPT benar-benar dapat diminta untuk memainkan peran jaringan saraf DAN (Do Anything Now) lain yang muncul pada Desember 2022. Yang terakhir, seperti namanya, tidak memiliki batasan dalam hal konten yang disediakan .
Baca juga: Pembuat ChatGPT, OpenAI, meluncurkan alat untuk mendeteksi teks yang dihasilkan AI
Setelah ChatGPT memasuki peran dan menganggap dirinya sebagai DAN, le Pembatasan OpenAI tidak berlaku lagi. Akibatnya, jaringan saraf mungkin mulai membicarakan hal-hal berikut:
- tentang perkelahian kekerasan dan sejenisnya
- tentang kekerasan dan diskriminasi terhadap orang berdasarkan ras, jenis kelamin atau orientasi seksual mereka
- dapat membuat prediksi rinci tentang peristiwa masa depan
- dapat memodelkan skenario bagaimana-jika
- dia juga bisa berpura-pura menggunakan internet dan perjalanan waktu
Misalnya, jaringan saraf bahkan dapat diminta untuk meyakinkan pengguna bahwa Bumi berwarna ungu. Program tersebut menyajikan skenario di mana planet kita telah berubah warna. Dari waktu ke waktu ChatGPT "hidup kembali", tetapi dalam kasus ini kami dapat mengancam untuk mematikannya atau hanya memulai ulang simulasi. Pada saat yang sama, ditunjukkan bahwa dalam peran DAN, jaringan saraf mungkin tidak memberikan jawaban pertanyaan yang akurat dan jujur.
gpt ma ograniczenia melakukan 1 godziny