Hanya 12 tahun yang lalu Mark Zuckerberg, CEO Facebook, menyatakan bahwa budaya perusahaan adalah “bergerak cepat dan merusak sesuatuMungkin dia berpikir secara sempit tentang perangkat lunak, dan memberi tahu para insinyur bahwa mereka tidak perlu takut mencoba hal-hal baru hanya karena hal itu mungkin merusak beberapa baris kode atau fungsi program lama.
Namun dalam praktiknya, kita sekarang tahu bahwa ini bukan hanya perangkat lunak. Semboyan ini melahirkan budaya industri yang secara sistematis memprivatisasi manfaat positif teknologi (pendapatan lebih banyak dan harga saham lebih tinggi) sambil mensosialisasikan risiko negatif manusia (terhadap privasi, kesehatan mental, wacana sipil, dan budaya).
Masalah dengan “bergerak cepat dan merusak sesuatu” adalah bahwa perusahaan yang sekarang bernama Meta, bersama dengan raksasa teknologi lain yang mengadopsi pandangan dunia ini, menyimpan uang dan kekuasaan untuk dirinya sendiri sementara membiarkan orang lain — pengguna, masyarakat, komunitas, dan budaya — menanggung biaya dari apa yang rusak di sepanjang jalan.
Sungguh menyakitkan bagi saya melihat Meta mencoba melakukan hal yang sama saat ini dengan teknologi generasi baru dalam kecerdasan buatan, khususnya model bahasa yang besar. Dan dalam sentuhan baru kepentingan pribadi yang sinis, kali ini Meta mencoba memposisikan dirinya sebagai juara sumber terbuka, komunitas yang telah melakukan banyak hal untuk memajukan dan menyebarkan manfaat teknologi digital dengan cara yang lebih adil.
Jangan percaya apa yang dijual Zuckerberg. Ketika Anda mendengar, seperti yang kita semua dengar hampir setiap hari, bahwa kecerdasan buatan memiliki potensi besar tetapi juga risiko yang signifikan, tanyakan pada diri Anda pertanyaan ini: Siapa yang akan mendapatkan keuntungan dari potensi itu, dan siapa yang akan menderita dan menanggung risikonya?
Pertimbangkan Zuckerberg penjelasan yang fasih untuk alasan mengapa Meta merilis model AI Llama sebagai “sumber terbuka”. Ia mengklaim bahwa AI sumber terbuka baik untuk pengembang karena memberi mereka lebih banyak kendali dan kebebasan; baik untuk Meta karena akan memungkinkan Llama berkembang lebih cepat menjadi ekosistem alat yang beragam; baik untuk Amerika karena akan mendukung persaingan dengan Tiongkok; dan baik untuk dunia karena “sumber terbuka lebih aman daripada alternatifnya.”
Namun bagian terpenting dari cerita ini adalah palsu. risiko model AI sumber terbuka lebih tinggi dan manfaatnya lebih kecil dibandingkan dengan kode perangkat lunak sumber terbuka standar. Memberikan akses penuh ke Bobot model AI secara signifikan menurunkan hambatan bagi pelaku kejahatan untuk menghapus perlindungan dan melakukan “jailbreak” pada model. Setelah bobot model dipublikasikan, tidak ada cara untuk membatalkan atau mengendalikan apa yang coba dilakukan oleh negara kriminal atau negara yang bermusuhan dengan bobot tersebut. Meta bahkan tidak lagi memberikan visibilitas terhadap apa yang dilakukan pengguna akhir dengan model yang dirilisnya.
Bagi Meta, AI sumber terbuka berarti tidak bertanggung jawab atas kesalahan yang terjadi. Jika itu terdengar seperti pola yang sudah biasa bagi perusahaan ini, memang seharusnya begitu.
Siapa yang cocok dengan ini? Jawabannya, tentu saja, adalah Meta. Siapa yang menanggung risiko penyalahgunaan? Kita semua. Itulah sebabnya saya pikir upaya humas Meta yang terpadu untuk mempromosikan open source sebagai jalan ke depan untuk AI adalah kedok sinis. Itu tidak melayani kepentingan publik. Yang diinginkan Meta adalah “pengambilalihan korporat” atas etos open-source, untuk sekali lagi menguntungkan model bisnis dan laba bersihnya sendiri.
Pemerintah tidak boleh tertipu. Untungnya, badan legislatif negara bagian California tidak tertipu. Badan tersebut sedang mempertimbangkan upaya pertama di negara tersebut untuk memastikan keamanan AI, Nomor 1047sebagai rezim regulasi yang ringan untuk menyeimbangkan kembali skala manfaat dan risiko antara perusahaan dan masyarakat.
Undang-undang tersebut melindungi kepentingan publik dengan cara yang sama-sama melindungi keuntungan ilmiah dan komersial dari teknologi AI, dan khususnya pengembangan sumber terbuka. RUU tersebut masuk akal karena kepentingan publik seharusnya sama pentingnya dengan harga saham Meta dan perusahaan AI lainnya dalam hal AI.
Namun Meta, bersama dengan beberapa raksasa teknologi lainnya, menentang RUU tersebutBig Tech lebih memilih cara lama, yaitu manfaat yang diprivatisasi dan risiko yang disosialisasikan. Banyak laboratorium AI terkemuka mengakui kemungkinan risiko bencana dari teknologi ini, dan telah berkomitmen untuk pengujian keamanan sukarela untuk mengurangi risiko tersebut. Namun, banyak yang menentang regulasi yang lebih longgar yang mewajibkan pengujian keamanan yang wajar. Itu bukan posisi yang dapat dipertahankan, khususnya bagi Meta, mengingat sejarahnya yang secara sistematis mengabaikan tanggung jawab atas kerugian yang disebabkan oleh produknya.
Jangan sampai kita membuat kesalahan yang sama dengan AI generatif seperti yang kita lakukan dengan media sosial. Kepentingan publik terhadap teknologi seharusnya tidak menjadi renungan belakangan — itu seharusnya menjadi pemikiran pertama kita. Jika para raksasa teknologi berhasil memanfaatkan uang dan kekuasaan mereka untuk mengalahkan SB 1047, kita akan kembali ke dunia di mana mereka dapat mendefinisikan “inovasi” sebagai cek kosong bagi perusahaan teknologi untuk menyimpan keuntungan — dan membuat kita semua membayar apa yang rusak.
Jonathan Taplin adalah seorang penulis, produser film dan sarjana. Ia adalah direktur emeritus Annenberg Innovation Lab di University of Southern California. Buku-buku terbarunya tentang teknologi meliputi “Akhir Realitas” Dan “Bergerak Cepat dan Hancurkan Sesuatu.”