Meskipun model OpenAI Sora telah menambahkan banyak kegembiraan di internet pagi ini, YouTuber populer Marques Brownlee alias MKBHD dengan tepat menyoroti kekhawatiran yang mungkin terjadi seputar model tersebut.
"Setiap video ini dihasilkan oleh AI, dan jika hal ini tidak sedikit pun membuat Anda khawatir, tidak ada yang akan," tulisnya dalam posnya. Kemampuan model OpenAI Sora tanpa ragu terlihat mengesankan saat ini.
Namun, berhati-hati terhadap model yang dengan mudah dapat menghasilkan video satu menit dari rangsangan teks sederhana sangat penting, karena dapat dengan mudah disalahgunakan.
Jika Anda ingat video yang dihasilkan oleh AI dari Will Smith makan spaghetti yang menjadi viral pada awal 2023, Anda akan mengenali lonjakan signifikan yang diwakili oleh Sora dari itu.
Ada juga satu lagi yang menampilkan Scarlett Johansson sedang makan sesuatu. Sora menunjukkan peningkatan besar dengan video yang terlihat sangat realistis. Namun, OpenAI tidak menghindari percakapan seputar keselamatan.
Perusahaan mengatakan sebelum merilis Sora dalam produk OpenAI, mereka akan menerapkan beberapa langkah keamanan penting.
Ini termasuk berkolaborasi dengan tim red teamers, para ahli di bidang misinformasi, konten berbenci, dan bias, yang akan menguji model secara ketat untuk mengidentifikasi kerentanan potensial.
Selain itu, OpenAI akan mengembangkan alat untuk mendeteksi konten yang menyesatkan, seperti detektor klasifikasi yang mampu mengidentifikasi video yang dihasilkan oleh Sora.
BACA JUGA:Honor Petugas KPPS Cair, PPS 18 Ilir Pastikan Semua Honor Tersalurkan
OpenAI juga akan memanfaatkan protokol keamanan yang sudah ada yang dikembangkan untuk produknya yang menggunakan DALL•E 3, yang relevan untuk Sora juga.
Misalnya, dalam produk OpenAI, klasifikasi teks OpenAI akan memfilter dan menolak rangsangan masukan yang melanggar kebijakan penggunaan, seperti yang meminta kekerasan ekstrem, konten seksual, gambaran benci, atau kemiripan selebriti.
Perusahaan mengatakan juga telah menetapkan klasifikasi gambar yang kuat untuk meninjau setiap frame video yang dihasilkan, memastikan kesesuaian dengan kebijakan penggunaan sebelum diakses oleh pengguna.
OpenAI juga mengatakan bahwa mereka secara aktif terlibat dengan pembuat kebijakan, pendidik, dan seniman secara global untuk mengatasi kekhawatiran dan menjelajahi aplikasi positif dari teknologi baru ini.
"Kami akan melibatkan pembuat kebijakan, pendidik, dan seniman di seluruh dunia untuk memahami kekhawatiran mereka dan mengidentifikasi kasus penggunaan positif untuk teknologi baru ini.