Salah satu jaminan yang kita berikan pada diri kita sebagai manusia untuk mengatasi rasa takut digantikan oleh mesin adalah bahwa kita akan selalu membutuhkan pengawasan dari orang-orang ahli. Ada penelitian yang secara eksplisit membicarakannya dan tampaknya hal ini tidak dapat dihindari – dan bahkan diinginkan – dengan adanya mesin yang dapat membuat kesalahan, maka kita perlu memikirkan bentuk-bentuk kendali manusia, terutama dalam aplikasi dengan risiko yang lebih besar.
Antonio, seorang pembaca setia Artificiale yang juga berpartisipasi dalam dua lokakarya di Ferrara pada tahun 2023 dan 2024, menulis refleksi panjang lebar tentang topik tersebut kepada saya.
“Saat ini,” kata Antonio, “Saya mendorong kolaborator muda saya untuk menggunakan kecerdasan buatan dalam pekerjaan yang lebih membosankan dan tidak memiliki nilai tambah. Namun, kadang-kadang, risikonya adalah mereka terbawa suasana, mereka mengabaikan rasa kritis mereka dan mereka akhirnya terlalu mempercayai alat tersebut, sehingga membuat kesalahan. Dalam kasus tersebut saya turun tangan dan mereka berupaya memecahkan masalah. Namun, dalam sepuluh tahun, para kolaborator tersebut akan memiliki peran yang bertanggung jawab dan akan lebih terbiasa bekerja dengan kecerdasan buatan. Hal yang saya pertanyakan – dan sedikit membuat saya khawatir – adalah apakah kita mempersiapkan mereka dengan sebaik-baiknya untuk menjadi supervisor yang ahli dan apakah mereka sendiri akan mampu membimbing generasi baru. Apakah kamu punya ide tentang itu?”.
Pendekatan yang disarankan Antonio kepada kolaboratornya sama dengan pendekatan yang saya usulkan dan memerlukan perhatian pada banyak hal: menulis dan merancang kasus yang kita inginkan agar asisten kecerdasan buatan dapat membantu kita; putuskan apa tujuannya, data apa yang akan kita berikan kepada asisten sebagai masukan, keluaran apa yang kita harapkan; mencoba dan, setelah pengujian, memahami tugas mana yang masuk akal untuk didelegasikan sebagian ke mesin dan mana, sebaliknya, harus tetap menjadi manusia; mengetahui cara mengevaluasi kapan saat yang tepat untuk melakukan akselerasi dan kapan harus memperlambat; selalu memperlakukan tanggapan AI seolah-olah tanggapan tersebut adalah produk setengah jadi yang harus diverifikasi; tahan godaan untuk mengambil lebih banyak jalan pintas dan mempercepat lebih banyak lagi. Ini adalah sebuah metode dan harus dipahami, dipelajari, diajarkan. Ada beberapa kasus di mana AI tidak layak digunakan. Namun, kasus-kasus di mana bantuannya dapat meluangkan waktu masyarakat dan, secara umum, membebaskan kita dari apa yang disebut David Graeber sebagai pekerjaan omong kosong.
Namun Antonio juga benar tentang aspek kritisnya, menurut pendapat saya: pengawasan ahli terhadap kecerdasan buatan adalah topik yang kompleks. Mereka yang mengawasi harus, pada saat yang sama, mengetahui dengan baik mesin yang mereka gunakan dan mengetahui tugas yang mereka lakukan dengan baik. Hal ini juga harus memperhatikan apakah mesin selaras dengan konteks pengoperasiannya dan pemahaman tentang apa itu manusia. Singkatnya: kita tidak hanya harus melatih orang untuk menggunakan alat-alat ini tanpa harus menggunakannya. Kami juga harus melatih mesinnya.
Kompleksitas ini terkait dengan tema yang lebih luas: kebutuhan untuk mengembangkan tidak hanya keterampilan teknis, namun juga keterampilan kritis dan manajemen perubahan. Pembinaan tokoh-tokoh yang mampu berperan sebagai pembimbing ahli tidak dapat dibatasi pada alat pembelajaran dan algoritma saja dan bukan sekedar persoalan teknologi saja. Keterampilan interdisipliner diperlukan: mengetahui cara kerja mesin, tetapi juga mengetahui implikasi sosial, etika, dan ekonomi dari keputusan yang dibuat dengan bantuan mesin tersebut. Ini adalah keseimbangan yang rumit, yang memerlukan waktu, sumber daya, dan pendekatan multidisiplin.
Jika kita membiarkan kemampuan untuk menafsirkan dan memahami informasi sepenuhnya didelegasikan kepada mesin, kita pasti tidak hanya kehilangan kendali, tetapi juga bagian mendasar dari apa yang menjadikan kita manusia. Ini bukanlah pertanyaan yang sepele. Bekerja dengan AI memerlukan pelatihan kemampuan untuk mengajukan pertanyaan yang tepat, mempertanyakan hasil, dan memahami kapan perlu berhenti. Hal ini berarti menyadari keterbatasan alat dan mengingat bahwa pengawasan manusia bukan sekedar tindakan teknis, namun merupakan tanggung jawab etis.
Beberapa inisiatif politik telah berupaya untuk bergerak ke arah ini. Misalnya, di Eropa, UU Ai bertujuan untuk menetapkan pedoman yang jelas untuk memastikan bahwa mesin tidak pernah bertindak tanpa kendali manusia, terutama di sektor-sektor sensitif seperti layanan kesehatan, peradilan, keamanan (dengan serangkaian isu kritis: misalnya, undang-undang ini tidak menangani dengan integrasi ke dalam industri perang atau dengan kontrol terhadap warga negara non-Eropa). Begitu pula dengan pendekatan humancentric yang diusung pemerintah Jepang sejak tahun 2019 juga mengarah ke arah yang sama.
Kita harus melihat transisi ini dengan lebih hati-hati, belajar untuk menempatkan hal-hal yang membuat kita tak tergantikan dalam hubungan kita dengan AI: kemampuan kita untuk berefleksi, membayangkan, dan memutuskan secara sadar. Namun, kita perlu memikirkan kembali banyak hal, melampaui mitos pertumbuhan berkelanjutan dan peningkatan produktivitas, dan memastikan bahwa mesin bekerja untuk kita dan bukan sebaliknya.
Ada solusi utopis dan kita juga harus mempertahankan waktu manusia dari godaan mereka yang, di masa depan – hal ini sudah terjadi sekarang – ingin membayar orang lebih sedikit dan lebih sedikit – menekan mereka dan semakin membuat mereka stres – dalam ilusi bahwa mesin akan melakukan segalanya. Dengan kata lain, kita harus mempertahankan diri dari pihak-pihak yang ingin mengambil nilai dengan segala cara demi memaksimalkan keuntungan segelintir orang.
Masalah yang dikemukakan Antonio membawa masalah lain, satu demi satu, yang harus kita mulai atasi.
Teks ini diambil dari buletin Artificiale.
Internazionale menerbitkan satu halaman surat setiap minggunya. Kami ingin tahu pendapat Anda tentang artikel ini. Kirimkan surat kepada kami di: [email protected]