Penyebab ChatGPT dan Bing Chat Menjawab Tidak Akurat

Engineer Google Klaim Kecerdasan Buatan Sudah Seperti Manusia
Engineer Google Klaim Kecerdasan Buatan Sudah Seperti Manusia

Dalam beberapa bulan terakhir, chatbot AI seperti ChatGPT telah menarik perhatian dunia karena kemampuannya untuk berbicara seperti manusia tentang hampir segala subjek. Namun, mereka datang dengan kekurangan serius: Mereka dapat menyajikan informasi palsu yang meyakinkan dengan mudah, membuat mereka tidak dapat diandalkan sebagai sumber informasi faktual dan potensi sumber pencemaran nama baik.

Mengapa chatbot AI membuat sesuatu yang tidak benar, dan akankah kita pernah dapat sepenuhnya mempercayai output mereka? Kami telah bertanya kepada beberapa ahli dan menggali bagaimana model AI ini bekerja untuk menemukan jawabannya.

“Ilusinasi” – istilah yang bermakna dalam AI.

Chatbot AI seperti ChatGPT OpenAI bergantung pada jenis AI yang disebut “large language model” (LLM) untuk menghasilkan respons mereka. LLM adalah program komputer yang dilatih pada jutaan sumber teks yang dapat membaca dan menghasilkan teks “bahasa alami” – bahasa seperti yang biasa ditulis atau diucapkan manusia. Sayangnya, mereka juga bisa membuat kesalahan.

Dalam literatur akademik, peneliti AI sering menyebut kesalahan ini sebagai “halusinasi.”

Namun, label tersebut menjadi kontroversial seiring dengan topik ini menjadi populer karena beberapa orang merasa hal itu memberikan ciri-ciri manusia pada model AI (menunjukkan mereka memiliki fitur manusia) atau memberikan mereka agensi (menunjukkan mereka dapat membuat pilihan mereka sendiri) dalam situasi di mana itu tidak boleh diimplikasikan.

Para pencipta LLM komersial juga mungkin menggunakan halusinasi sebagai alasan untuk menyalahkan model AI atas keluaran yang cacat daripada mengambil tanggung jawab atas keluaran tersebut.

Namun, generative AI begitu baru sehingga kita memerlukan metafora yang dipinjam dari gagasan yang sudah ada untuk menjelaskan konsep teknis ini kepada masyarakat umum.

Dalam konteks ini, kami merasa istilah “konfabulasi,” meskipun tidak sempurna, adalah metafora yang lebih baik daripada “halusinasi.

Dalam psikologi manusia, “konfabulasi” terjadi ketika ingatan seseorang memiliki kesenjangan dan otak secara meyakinkan mengisi sisanya tanpa bermaksud menipu orang lain.

ChatGPT tidak bekerja seperti otak manusia, tetapi istilah “konfabulasi” dapat dianggap sebagai metafora yang lebih baik karena ada prinsip pengisian kesenjangan kreatif yang berfungsi, seperti yang akan kami jelaskan di bawah ini.

Masalah konfabulasi.

Ini adalah masalah besar ketika bot AI menghasilkan informasi palsu yang berpotensi menyesatkan, menipu, atau mencemarkan nama baik.

Baru-baru ini, The Washington Post melaporkan tentang seorang profesor hukum yang menemukan bahwa ChatGPT telah menempatkannya dalam daftar sarjana hukum yang melakukan pelecehan seksual pada seseorang. Namun, hal itu tidak pernah terjadi—ChatGPT membuatnya secara palsu.

Pada hari yang sama, Ars melaporkan tentang seorang walikota Australia yang diduga menemukan bahwa ChatGPT mengklaim bahwa ia telah divonis bersalah atas suap dan dijatuhi hukuman penjara, yang merupakan kebohongan total.

Tidak lama setelah diluncurkan, orang-orang mulai mengumumkan akhir dari mesin pencari. Pada saat yang sama, banyak contoh konfabulasi ChatGPT mulai beredar di media sosial.

Bot AI ini telah menciptakan buku dan studi yang tidak ada, publikasi yang tidak ditulis oleh profesor, makalah akademis palsu, kutipan hukum palsu, maskot ritel yang tidak nyata, dan detail teknis yang tidak masuk akal.

Namun, meskipun ChatGPT cenderung berbohong dengan santai, kontra-intuitifnya, ketahanannya terhadap konfabulasi adalah mengapa kita bahkan membicarakannya hari ini.

Beberapa ahli mencatat bahwa ChatGPT secara teknis merupakan perbaikan dibandingkan GPT-3 biasa (model pendahulunya) karena dapat menolak menjawab beberapa pertanyaan atau memberi tahu Anda ketika jawabannya mungkin tidak akurat.

Faktor utama kesuksesan Chat adalah kemampuannya untuk menekan confabulation sehingga tidak terlihat untuk banyak pertanyaan umum,” kata Riley Goodside, pakar dalam model bahasa besar yang menjabat sebagai insinyur prompt staf di Scale AI. “Dibandingkan dengan pendahulunya, ChatGPT jauh lebih sedikit rentan membuat sesuatu yang salah.”

Jika digunakan sebagai alat brainstorming, lompatan logis dan confabulation ChatGPT mungkin dapat mengarah pada terobosan kreatif.

Tetapi ketika digunakan sebagai referensi fakta, ChatGPT dapat menyebabkan kerusakan yang nyata, dan OpenAI mengetahuinya.

Tidak lama setelah peluncuran model, CEO OpenAI Sam Altman men-tweet, “ChatGPT sangat terbatas, tetapi cukup baik dalam beberapa hal untuk menciptakan kesan kehebatan yang menyesatkan. Salah besar jika mengandalkannya untuk hal-hal penting saat ini.

Ini adalah pratinjau kemajuan; kita memiliki banyak pekerjaan untuk dilakukan terkait kekokohan dan kebenaran.” Dalam tweet selanjutnya, ia menulis, “Ini memang tahu banyak hal, tetapi bahayanya adalah ia percaya diri dan salah sebagian besar waktu.”

Apa yang terjadi di sini?

Bagaimana ChatGPT bekerja

Untuk memahami bagaimana model GPT seperti ChatGPT atau Bing Chat melakukan konfabulasi, kita perlu tahu bagaimana model GPT bekerja.

Meskipun OpenAI belum merilis detail teknis dari ChatGPT, Bing Chat, atau bahkan GPT-4, kita memiliki akses ke makalah penelitian yang memperkenalkan pendahulunya, GPT-3, pada tahun 2020.

Baca Juga:  Pengertian dan Kelebihan Bahasa Pemrograman Go

Peneliti membangun (melatih) model bahasa besar seperti GPT-3 dan GPT-4 dengan menggunakan proses yang disebut “unsupervised learning”, yang berarti data yang mereka gunakan untuk melatih model tidak diatur atau diberi label khusus.

Selama proses ini, model diberi makan tubuh teks besar (jutaan buku, situs web, artikel, puisi, transkrip, dan sumber lainnya) dan berulang kali mencoba memprediksi kata berikutnya dalam setiap urutan kata.

Jika prediksi model mendekati kata berikutnya yang sebenarnya, jaringan saraf memperbarui parameter untuk memperkuat pola yang menyebabkan prediksi tersebut.

Sebaliknya, jika prediksi salah, model menyesuaikan parameternya untuk meningkatkan kinerjanya dan mencoba lagi. Proses trial and error ini, melalui teknik yang disebut “backpropagation”, memungkinkan model belajar dari kesalahannya dan secara bertahap meningkatkan prediksinya selama proses pelatihan.

Sebagai hasilnya, GPT belajar asosiasi statistik antara kata dan konsep terkait dalam kumpulan data.

Beberapa orang, seperti Ilmuwan Kepala OpenAI Ilya Sutskever, berpendapat bahwa model GPT bahkan lebih jauh dari itu, membangun semacam model realitas internal sehingga mereka dapat memprediksi token terbaik berikutnya dengan lebih akurat, tetapi ide ini kontroversial.

Detail yang tepat tentang bagaimana model GPT membuat token berikutnya dalam jaringan saraf mereka masih belum pasti.

“apa artinya memprediksi token selanjutnya dengan cukup baik? … itu berarti bahwa Anda memahami realitas yang mendasari terciptanya token tersebut”

penjelasan yang sangat bagus dari @ilyasut, dan pemikiran tentang pertanyaan penting: sejauh mana sistem ini dapat melakukan ekstrapolasi di luar kemampuan manusia? pic.twitter.com/v8zFQWvxWY

— BioBootloader (@bio_bootloader) March 28, 2023

Pada gelombang terkini model GPT, pelatihan inti ini (kini sering disebut “pra-pelatihan”) hanya dilakukan satu kali. Setelah itu, orang dapat menggunakan jaringan saraf yang telah dilatih dalam “mode inferensi”, yang memungkinkan pengguna untuk memberikan masukan ke dalam jaringan yang telah dilatih dan mendapatkan hasil.

Selama inferensi, urutan masukan untuk model GPT selalu disediakan oleh manusia, dan disebut “prompt”. Prompt menentukan keluaran model, dan mengubah prompt bahkan sedikit dapat secara dramatis mengubah apa yang dihasilkan oleh model.

Misalnya, jika Anda memberikan prompt “Mary memiliki,” GPT-3 biasanya akan melengkapi kalimat dengan “little lamb.” Itu karena kemungkinan ada ribuan contoh “Mary had a little lamb” dalam kumpulan data latihan GPT-3, membuatnya menjadi kelengkapan yang masuk akal.

Tetapi jika Anda menambahkan lebih banyak konteks pada prompt, seperti “Di rumah sakit, Mary memiliki,” hasilnya akan berubah dan mengembalikan kata-kata seperti “bayi” atau “serangkaian tes”.

Di sinilah hal-hal menjadi sedikit lucu dengan ChatGPT, karena diatur sebagai percakapan dengan agen daripada hanya tugas kelengkapan teks.

Dalam kasus ChatGPT, prompt masukan adalah seluruh percakapan yang telah Anda lakukan dengan ChatGPT, dimulai dari pertanyaan atau pernyataan pertama Anda dan termasuk instruksi khusus yang diberikan kepada ChatGPT sebelum percakapan simulasi dimulai.

Di sepanjang jalan, ChatGPT menyimpan ingatan jangka pendek yang berjalan (yang disebut “jendela konteks”) dari segala hal yang telah ditulis olehnya dan Anda, dan ketika “berbicara” dengan Anda, ia berusaha untuk melengkapi transkrip percakapan sebagai tugas kelengkapan teks.

Selama interaksi dengan ChatGPT, model akan menggunakan konteks dari seluruh percakapan untuk menghasilkan respons yang paling tepat. Oleh karena itu, jika Anda mengubah pertanyaan atau instruksi pada percakapan di awal, hal itu dapat mempengaruhi respons akhir dari ChatGPT.

Namun, meskipun ChatGPT dapat menghasilkan respons yang sangat meyakinkan dan terkadang bahkan sulit untuk dibedakan dari percakapan manusia yang sebenarnya, ChatGPT tetap memiliki kelemahan.

Salah satu masalah yang ditemukan adalah confabulation, di mana model menghasilkan respons yang tidak akurat atau bahkan salah karena pemahaman yang salah tentang konteks atau pengetahuan yang tidak lengkap.

Itulah sebabnya mengapa penting untuk memahami keterbatasan ChatGPT dan menggunakan model ini dengan hati-hati dalam situasi yang memerlukan keakuratan dan kebenaran, seperti di bidang medis, hukum, atau keamanan.

Selain itu, ChatGPT berbeda dari GPT-3 biasa karena juga telah dilatih dengan menggunakan transkrip percakapan yang ditulis oleh manusia.

“Kami melatih model awal dengan menggunakan penyetelan halus terpimpin: pelatih AI manusia menyediakan percakapan di mana mereka memainkan kedua belah pihak—pengguna dan asisten AI,” tulis OpenAI dalam halaman rilis ChatGPT awal mereka.

“Kami memberikan akses kepada pelatih untuk menggunakan saran yang ditulis oleh model untuk membantu mereka menyusun tanggapan.”

ChatGPT juga telah disesuaikan lebih banyak daripada GPT-3 menggunakan teknik yang disebut “penguatan pembelajaran dari umpan balik manusia,” atau RLHF, di mana penilai manusia menilai tanggapan ChatGPT berdasarkan urutan preferensi, kemudian memberikan informasi tersebut kembali ke model.

Melalui RLHF, OpenAI dapat menanamkan tujuan pada model untuk menahan diri dari menjawab banyak pertanyaan yang tidak dapat dijawab secara dapat diandalkan.

Hal ini memungkinkan ChatGPT menghasilkan tanggapan yang koheren dengan lebih sedikit confabulations daripada model dasar. Namun, ketidakakuratan masih dapat terlewatkan.

Mengapa ChatGPT bercakap-cakap

Secara alami, tidak ada yang memisahkan fakta dari fiksi dalam set data mentah model GPT.

Pedoman ini berasal dari

a) prevalensi konten akurat dalam set data,

b) pengakuan informasi factual pada hasil oleh manusia, atau

c) panduan pembelajaran penguatan dari manusia yang menekankan pada respons faktual tertentu.

Perilaku LLM masih menjadi area penelitian yang aktif. Bahkan para peneliti yang menciptakan model GPT ini masih menemukan sifat-sifat teknologi yang mengejutkan yang tidak ada yang memprediksi saat pertama kali dikembangkan.

Kemampuan GPT untuk melakukan banyak hal menarik yang kita lihat sekarang, seperti terjemahan bahasa, pemrograman, dan bermain catur, pada satu titik mengejutkan para peneliti (untuk merasakan sedikit dari itu, lihat makalah penelitian GPT-2 tahun 2019 dan cari istilah “mengejutkan”).

Ketika kita bertanya mengapa ChatGPT melakukan konfabulasi, sulit untuk menemukan jawaban teknis yang tepat. Dan karena ada elemen “kotak hitam” pada bobot jaringan saraf, sangat sulit (jika tidak mustahil) untuk memprediksi hasil yang tepat dari model tersebut saat diberikan prompt yang kompleks. Namun, kita mengetahui beberapa hal dasar tentang bagaimana dan mengapa konfabulasi terjadi.

Penting untuk memahami peran ChatGPT sebagai mesin prediksi dalam memahami kemampuannya dalam melakukan konfabulasi.

Ketika ChatGPT melakukan konfabulasi, ia mencari informasi atau analisis yang tidak ada dalam data set-nya dan mengisinya dengan kata-kata yang terdengar masuk akal. ChatGPT sangat mahir dalam membuat sesuatu yang tidak benar karena jumlah data yang dimilikinya sangat besar dan kemampuannya dalam mengambil konteks kata membantu untuk menempatkan informasi yang salah dengan mulus ke dalam teks sekitarnya.

“Saya pikir cara terbaik untuk memahami konfabulasi adalah dengan memikirkan sifat dasar dari model bahasa besar: Satu-satunya hal yang mereka tahu adalah memilih kata berikutnya berdasarkan probabilitas statistik terhadap set data training mereka,” kata Simon Willison, seorang pengembang perangkat lunak yang sering menulis tentang topik ini.

Dalam sebuah makalah tahun 2021, tiga peneliti dari Universitas Oxford dan OpenAI mengidentifikasi dua jenis kesalahan besar yang LLM seperti ChatGPT mungkin hasilkan. Yang pertama berasal dari bahan sumber yang tidak akurat dalam set data pelatihan, seperti kesalahpahaman umum (misalnya, “makan kalkun membuat Anda mengantuk”). Yang kedua muncul dari membuat inferensi tentang situasi tertentu yang tidak ada dalam materi pelatihan (set data); ini termasuk dalam label “halusinasi” yang disebutkan sebelumnya.

Apakah model GPT membuat tebakan liar atau tidak bergantung pada properti yang disebut para peneliti AI sebagai “suhu,” yang sering digambarkan sebagai pengaturan “kreativitas.” Jika kreativitas diatur tinggi, model akan menebak dengan liar; jika diatur rendah, ia akan mengeluarkan data secara deterministik berdasarkan set data-nya.

Baru-baru ini, karyawan Microsoft Mikhail Parakhin, yang bekerja di Bing Chat, men-tweet tentang kecenderungan Bing Chat untuk halusinasi dan apa yang menyebabkannya. “Ini yang pernah saya jelaskan sebelumnya: halusinasi = kreativitas,” tulisnya. “Ia mencoba menghasilkan kelanjutan string dengan probabilitas tertinggi menggunakan semua data yang tersedia. Sangat sering itu benar. Terkadang orang tidak pernah menghasilkan kelanjutan seperti ini.”

Parakhin mengatakan bahwa lompatan kreatif liar itulah yang membuat LLM menarik. “Anda bisa membatasi halusinasi, dan itu sangat membosankan,” tulisnya. “[Ia] menjawab ‘Saya tidak tahu’ sepanjang waktu atau hanya membaca apa yang ada di hasil Pencarian (terkadang juga tidak benar). Yang hilang adalah nada suara: itu tidak boleh terdengar begitu percaya diri dalam situasi-situasi tersebut.”

Menyeimbangkan kreativitas dan keakuratan adalah tantangan dalam menyempurnakan model bahasa seperti ChatGPT. Di satu sisi, kemampuan untuk menghasilkan respon kreatif membuat ChatGPT menjadi alat yang sangat kuat untuk menghasilkan ide-ide baru atau mengatasi kebuntuan menulis. Hal ini juga membuat model-model ini terdengar lebih manusiawi. Di sisi lain, keakuratan terhadap materi sumber sangat penting dalam menghasilkan informasi yang dapat diandalkan dan menghindari konfabulasi. Menemukan keseimbangan yang tepat antara keduanya adalah tantangan yang terus berlangsung dalam pengembangan model bahasa, tetapi hal ini penting untuk menghasilkan alat yang berguna dan dapat dipercaya.

Ada juga masalah kompresi. Selama proses pelatihan, GPT-3 mempertimbangkan petabyte informasi, tetapi jaringan saraf hasilnya hanya sebagian kecil dari itu. Dalam sebuah artikel di New Yorker yang banyak dibaca, penulis Ted Chiang menyebutnya sebagai “JPEG yang buram dari web.” Ini berarti sebagian besar data pelatihan faktual hilang, tetapi GPT-3 mengimbanginya dengan mempelajari hubungan antara konsep-konsep yang dapat digunakan nanti untuk merumuskan permutasi baru dari fakta-fakta tersebut. Seperti manusia dengan ingatan yang tidak sempurna yang bekerja dari dugaan tentang bagaimana sesuatu bekerja, terkadang GPT-3 bisa salah. Dan, tentu saja, jika tidak tahu jawabannya, ia akan memberikan tebakan terbaiknya.

Tak boleh lupa dengan peran prompt dalam confabulations. Secara beberapa aspek, ChatGPT adalah sebuah cermin: ia memberikan kembali apa yang kita berikan. Jika kita memberinya informasi yang salah, ia akan cenderung setuju dan “berpikir” sejalan dengan itu. Itulah mengapa penting untuk memulai dengan prompt baru ketika mengubah topik atau mengalami respons yang tidak diinginkan. Selain itu, ChatGPT bersifat probabilistik, yang berarti ia sebagian acak dalam sifatnya. Bahkan dengan prompt yang sama, outputnya dapat berubah antara sesi.

Semua ini mengarah pada satu kesimpulan, yang juga disepakati oleh OpenAI: ChatGPT seperti yang dirancang saat ini, bukanlah sumber informasi faktual yang dapat dipercaya. “ChatGPT bagus untuk beberapa hal, seperti membantu mengatasi writer’s block atau menciptakan ide-ide kreatif,” kata Dr. Margaret Mitchell, peneliti dan chief ethics scientist di perusahaan AI Hugging Face. “Ia tidak dibuat untuk menjadi faktual dan karena itu tidak akan menjadi faktual. Itu saja.”

Bisakah fibbing diperbaiki?

Mempercayai generasi chatbot AI secara buta adalah kesalahan, tetapi hal itu bisa berubah seiring dengan meningkatnya teknologi yang mendasarinya.

Sejak diluncurkan pada bulan November, ChatGPT telah ditingkatkan beberapa kali, dan beberapa peningkatan termasuk peningkatan akurasi dan kemampuan yang ditingkatkan untuk menolak menjawab pertanyaan yang tidak diketahui jawabannya

Jadi, bagaimana OpenAI berencana membuat ChatGPT lebih akurat? Kami telah mencoba menghubungi OpenAI beberapa kali dalam beberapa bulan terakhir untuk membicarakan topik ini dan belum menerima respons.

Namun, kita dapat melihat petunjuk dari dokumen yang dirilis OpenAI dan laporan berita tentang upaya perusahaan untuk memandu kesesuaian ChatGPT dengan pekerja manusia.

Seperti yang disebutkan sebelumnya, salah satu alasan mengapa ChatGPT begitu sukses adalah karena pelatihan yang ekstensif menggunakan RLHF.

Seperti yang dijelaskan OpenAI, “Untuk membuat model kami lebih aman, lebih membantu, dan lebih sejalan, kami menggunakan teknik yang sudah ada yaitu reinforcement learning from human feedback (RLHF). Pada prompt yang diajukan oleh pelanggan ke API kami, labeler kami memberikan demonstrasi perilaku model yang diinginkan dan menilai beberapa output dari model kami. Kami kemudian menggunakan data ini untuk memoles ulang GPT-3.”

Sutskever dari OpenAI meyakini bahwa pelatihan tambahan melalui RLHF dapat memperbaiki masalah halusinasi.

“Saya cukup optimis bahwa dengan meningkatkan langkah pelatihan berikutnya dari umpan balik manusia, kita dapat mengajarkan mesin untuk tidak halusinasi,” kata Sutskever dalam wawancara dengan Forbes bulan lalu.

“Cara kita melakukan hal-hal saat ini adalah dengan menyewa orang untuk mengajarkan jaringan saraf kami untuk berperilaku, untuk mengajarkan ChatGPT untuk berperilaku.

Anda hanya berinteraksi dengannya, dan ia melihat dari reaksi Anda, ia menyimpulkan, oh, itu bukan yang Anda inginkan.

Anda tidak puas dengan keluarannya. Oleh karena itu, keluarannya tidak baik, dan harus melakukan sesuatu yang berbeda lain kali. Saya pikir ada kemungkinan yang cukup besar bahwa pendekatan ini akan dapat menyelesaikan halusinasi secara keseluruhan.”

Namun, beberapa ahli berpendapat sebaliknya. Yann LeCun, ilmuwan kecerdasan buatan utama di Meta, percaya bahwa masalah halusinasi tidak akan terpecahkan oleh generasi saat ini dari LLM yang menggunakan arsitektur GPT. Namun, ada pendekatan yang berkembang pesat yang dapat membawa akurasi yang lebih besar ke LLM dengan arsitektur saat ini.

“Salah satu pendekatan yang paling aktif diteliti untuk meningkatkan fakta dalam LLM adalah augmentasi pengambilan data – menyediakan dokumen eksternal untuk model untuk digunakan sebagai sumber dan konteks pendukung,” kata Goodside. Dengan teknik itu, ia menjelaskan, para peneliti berharap dapat mengajarkan model untuk menggunakan mesin pencari eksternal seperti Google, “mengutip sumber yang dapat dipercaya dalam jawaban mereka seperti peneliti manusia mungkin, dan mengandalkan pengetahuan faktual yang tidak dapat diandalkan yang dipelajari selama pelatihan model.”

Bing Chat dan Google Bard sudah melakukannya dengan mengambil pencarian dari web, dan segera, versi yang diaktifkan melalui browser dari ChatGPT juga akan melakukannya. Selain itu, plugin ChatGPT bertujuan untuk melengkapi data pelatihan GPT-4 dengan informasi yang diperoleh dari sumber eksternal, seperti web dan database khusus. Penambahan ini mirip dengan bagaimana seseorang dengan akses ke ensiklopedia akan lebih akurat secara faktual daripada seseorang tanpa akses ke ensiklopedia.

Selain itu, mungkin memungkinkan untuk melatih model seperti GPT-4 agar menyadari ketika membuat sesuatu yang tidak benar dan menyesuaikan dengan tepat. “Ada hal-hal yang lebih dalam yang dapat dilakukan agar ChatGPT dan serupa menjadi lebih faktual dari awal,” kata Mitchell, “termasuk kurasi data yang lebih canggih dan pengaitan data pelatihan dengan skor ‘kepercayaan’, menggunakan metode yang tidak berbeda jauh dengan PageRank… Juga memungkinkan untuk menyetel model untuk menghindari ketidakpastian dalam respons.”

Jadi meskipun ChatGPT saat ini dalam masalah besar terkait confabulations-nya, ada jalan keluar di depan, dan demi dunia yang mulai mengandalkan alat-alat ini sebagai asisten penting (untuk kebaikan atau keburukan), peningkatan keandalan faktual tidak dapat datang cukup cepat.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *