Jawapan ringkas: Tiada peratusan AI yang boleh diterima. Tahap yang sesuai bergantung pada taruhannya, apa yang dibentuk oleh AI, dan sama ada manusia kekal bertanggungjawab. Penglibatan AI boleh menjadi besar dalam kerja dalaman yang berisiko rendah apabila fakta diperiksa, tetapi ia harus kekal terhad apabila kesilapan boleh mengelirukan, menyebabkan bahaya atau mensimulasikan kepakaran.
Perkara utama:
Akauntabiliti : Tugaskan seorang manusia bernama untuk setiap output akhir yang anda terbitkan.
Tahap risiko : Gunakan lebih banyak AI untuk tugasan dalaman yang berisiko rendah dan kurang untuk kerja-kerja sensitif yang dihadapi orang ramai.
Pengesahan : Semak setiap tuntutan, nombor, petikan dan petikan sebelum menerbitkan kandungan berbantukan AI.
Ketelusan : Dedahkan penglibatan AI apabila automasi tersembunyi boleh menyebabkan khalayak berasa tertipu.
Kawalan suara : Biarkan AI menyokong struktur dan penyuntingan, sementara pertimbangan dan gaya manusia kekal sebagai penentu.

🔖 Anda Mungkin Juga Menyukai:
🔗 Apakah etika AI?
Menerangkan prinsip AI yang bertanggungjawab, keadilan, ketelusan dan asas akauntabiliti.
🔗 Apakah bias AI?
Meliputi jenis bias, punca, impak dan pendekatan mitigasi.
🔗 Apakah kebolehskalaan AI?
Menghuraikan penskalaan sistem AI, prestasi, kos dan keperluan infrastruktur.
🔗 Apakah itu AI ramalan?
Mentakrifkan AI ramalan, kes penggunaan utama, model dan faedah.
Mengapa "Berapakah Peratusan AI yang Boleh Diterima?" kini menjadi persoalan 🤔
Tidak lama dahulu, "bantuan AI" bermaksud pembetulan automatik dan pemeriksa ejaan. Kini ia boleh membuat sumbang saran, menggariskan, menulis, menulis semula, meringkaskan, menterjemah, menjana imej, mengemas hamparan, mengekod dan menapis frasa buruk anda dengan sopan. Jadi persoalannya bukanlah sama ada AI terlibat - ia sudah terlibat.
Soalannya lebih kurang seperti:
-
Di mana tanggungjawab terletak. (Anda, pasukan anda, editor anda, alat…) Prinsip AI OECD
-
Apa yang sedang dihasilkan. (Sajak, nota perubatan, dasar perundangan, esei sekolah…) Panduan WHO tentang AI generatif dalam kesihatan
-
Siapa yang membacanya dan mengapa. (Pelanggan, pelajar, pengundi, pesakit, bos anda.)
-
Apa yang boleh menjadi salah. (Maklumat salah, getaran seperti plagiarisme, isu pematuhan, kerosakan jenama.) OpenAI: mengapa model bahasa berhalusinasi dengan panduan AI Pejabat Hak Cipta AS
Dan, dengan cara yang sedikit janggal, "peratusan" boleh jadi kurang penting daripada apa yang disentuh oleh AI. Menambah AI pada "variasi tajuk utama" tidak sama dengan menambah AI pada "nasihat kewangan", walaupun kedua-duanya secara teknikalnya 30% AI atau apa sahaja. 🙃
Apa yang menjadikan versi "peratusan AI yang boleh diterima" yang baik ✅
Jika kita membina "versi yang baik" bagi konsep ini, ia perlu berfungsi dalam amalan seharian, bukan sekadar kelihatan kemas secara falsafah.
Rangka kerja yang baik untuk Apakah Peratusan AI yang Boleh Diterima? kekal:
-
Sedar konteks : pekerjaan yang berbeza, kepentingan yang berbeza. NIST AI RMF 1.0
-
Berdasarkan hasil : ketepatan, keaslian dan nilai praktikal lebih penting daripada ujian ketulenan.
-
Boleh diaudit : anda boleh menjelaskan apa yang berlaku jika seseorang bertanya. Prinsip AI OECD
-
Milik manusia : orang sebenar bertanggungjawab untuk output akhir (ya, walaupun ia menjengkelkan). Prinsip AI OECD
-
Menghormati penonton : orang ramai benci rasa tertipu - walaupun kandungannya "baik-baik sahaja." Cadangan UNESCO mengenai Etika AI
Selain itu, ia tidak sepatutnya memerlukan gimnastik mental seperti “Adakah ayat itu 40% AI atau 60%?” kerana jalan itu berakhir dengan kegilaan… seperti cuba mengukur berapa banyak lasagna yang “lebih cenderung kepada keju.” 🧀
Cara mudah untuk menentukan "peratusan AI" tanpa hilang akal 📏
Sebelum perkara perbandingan, berikut ialah model yang waras. Fikirkan penggunaan AI secara berlapis-lapis:
-
Lapisan Idea (sumbang saran, gesaan, rangka kerja)
-
Lapisan Draf (penulisan laluan pertama, struktur, pengembangan)
-
Lapisan Edit (suntingan kejelasan, pelicinan ton, tatabahasa)
-
Lapisan Fakta (dakwaan, statistik, petikan, kekhususan)
-
Lapisan Suara (gaya, humor, personaliti jenama, pengalaman hidup)
Jika AI banyak menyentuh Lapisan Fakta, peratusan yang boleh diterima biasanya menurun dengan cepat. Jika AI kebanyakannya berada dalam lapisan Idea + Edit, orang ramai cenderung lebih santai. OpenAI: mengapa model bahasa berhalusinasi dengan Profil NIST GenAI (AI RMF)
Jadi apabila seseorang bertanya Berapakah Peratusan AI yang Boleh Diterima? , saya menterjemahkannya kepada:
Lapisan manakah yang dibantu oleh AI, dan sejauh manakah risiko lapisan tersebut dalam konteks ini? 🧠
Jadual Perbandingan - "resipi" penggunaan AI yang biasa dan di mana ia sesuai 🍳
Berikut ialah helaian contekan praktikal. Keanehan pemformatan ringan disertakan kerana jadual sebenar tidak pernah sempurna, bukan?.
| alat / pendekatan | penonton | harga | mengapa ia berfungsi |
|---|---|---|---|
| Percambahan fikiran AI sahaja | penulis, pemasar, pengasas | percuma ke berbayar | Mengekalkan keaslian yang bersifat manusiawi, AI hanya mencetuskan idea - seperti rakan sekerja yang bising dengan espresso |
| Garis besar AI + draf manusia | blogger, pasukan, pelajar (secara beretika) | rendah hingga sederhana | Struktur menjadi lebih pantas, suara kekal milik anda. Agak selamat jika fakta disahkan |
| Draf manusia + pas suntingan AI | kebanyakan profesional | rendah | Bagus untuk kejelasan + nada. Risiko kekal rendah jika anda tidak membiarkannya “mencipta” butiran OpenAI: Adakah ChatGPT mengatakan yang sebenarnya? |
| Draf pertama AI + penulisan semula manusia yang berat | pasukan sibuk, operasi kandungan | pertengahan | Cepat, tetapi memerlukan disiplin. Jika tidak, anda akan menghantar bubur yang hambar… maaf 😬 |
| Terjemahan AI + ulasan manusia | pasukan global, sokongan | pertengahan | Kelajuan yang baik, tetapi nuansa tempatan mungkin sedikit tersasar - seperti kasut yang hampir muat |
| Ringkasan AI untuk nota dalaman | mesyuarat, penyelidikan, kemas kini eksekutif | rendah | Kecekapan menang. Namun: sahkan keputusan penting, kerana ringkasan boleh menjadi "kreatif" OpenAI: mengapa model bahasa berhalusinasi |
| Nasihat "pakar" yang dijana AI | khalayak awam | berbeza-beza | Risiko tinggi. Kedengaran yakin walaupun salah, yang merupakan pasangan yang suram WHO: Etika & tadbir urus AI untuk kesihatan |
| Kandungan awam yang dijana sepenuhnya oleh AI | laman web spam, pengisi berisiko rendah | rendah | Ia boleh diskala, sudah tentu - tetapi kepercayaan dan pembezaan sering terjejas dalam jangka masa panjang. Saranan UNESCO mengenai Etika AI |
Anda akan perasan saya tidak menganggap "AI sepenuhnya" sebagai jahat secara semula jadi. Ia cuma… selalunya rapuh, generik dan berisiko reputasi apabila ia berhadapan dengan manusia. 👀
Peratusan AI yang boleh diterima mengikut senario - julat yang realistik 🎛️
Baiklah, mari kita bincangkan nombor - bukan sebagai undang-undang, tetapi sebagai penghadang. Ini adalah julat "Saya perlu terus hidup dalam kehidupan seharian".
1) Kandungan pemasaran dan blog ✍️
-
Selalunya boleh diterima: Sokongan AI 20% hingga 60%
-
Risiko meningkat apabila: dakwaan menjadi spesifik, perbandingan menjadi agresif, testimoni muncul atau anda membentangkannya sebagai "pengalaman peribadi" komen FTC yang merujuk kepada risiko tuntutan pemasaran AI Pejabat Hak Cipta AS Panduan AI
AI boleh membantu anda bergerak lebih pantas di sini, tetapi khalayak boleh menghidu kandungan generik seperti anjing menghidu ketakutan. Metafora saya yang kikuk ialah: Salinan pemasaran yang banyak menggunakan AI umpama cologne yang disembur ke atas pakaian yang tidak dibasuh - ia cuba, tetapi ada sesuatu yang tidak kena. 😭
2) Kerja akademik dan penyerahan pelajar 🎓
-
Kerap diterima: 0% hingga 30% (bergantung pada peraturan dan tugasan)
-
Kegunaan yang lebih selamat: sumbang saran, menggariskan, menyemak tatabahasa, penjelasan kajian
-
Risiko meningkat apabila: AI menulis hujah, analisis atau “pemikiran asal” DfE: AI Generatif dalam pendidikan
Isu besar bukan sekadar keadilan - ia adalah pembelajaran. Jika AI yang berfikir, otak pelajar akan duduk di bangku sambil makan hirisan oren.
3) Penulisan di tempat kerja (e-mel, dokumen, SOP, nota dalaman) 🧾
-
Selalunya boleh diterima: 30% hingga 80%
-
Mengapa begitu tinggi? Penulisan dalaman adalah tentang kejelasan dan kepantasan, bukan ketulenan sastera.
-
Risiko meningkat apabila: bahasa dasar mempunyai implikasi undang-undang, atau ketepatan data penting NIST AI RMF 1.0
Banyak syarikat secara senyap-senyap sudah beroperasi dengan "bantuan AI yang tinggi". Cuma mereka tidak menggelarnya begitu. Ia lebih seperti "kami sedang cekap" - yang mana, adil.
4) Sokongan pelanggan dan respons sembang 💬
-
Selalunya boleh diterima: 40% hingga 90% dengan pagar pengadang
-
Tidak boleh dirunding: laluan peningkatan, asas pengetahuan yang diluluskan, semakan kukuh untuk kes pinggir
-
Risiko meningkat apabila: AI membuat janji, bayaran balik atau pengecualian dasar OpenAI: Adakah ChatGPT mengatakan yang sebenarnya? Profil NIST GenAI (AI RMF)
Pelanggan tidak kisah bantuan segera. Mereka tidak kisah bantuan yang salah. Mereka lebih bimbang dengan bantuan yang salah.
5) Kewartawanan, maklumat awam, kesihatan, topik berkaitan perundangan 🧠⚠️
-
Kerap diterima: 0% hingga 25% bantuan penulisan AI
-
Lebih boleh diterima: AI untuk transkripsi, ringkasan kasar, organisasi
-
Risiko meningkat apabila: AI "mengisi jurang" atau melicinkan ketidakpastian kepada kepastian palsu AP: Piawaian sekitar AI generatif Panduan WHO mengenai AI generatif dalam kesihatan
Di sini, "peratusan" adalah lensa yang salah. Anda mahukan kawalan editorial manusia dan pengesahan yang kukuh. AI boleh membantu, tetapi ia tidak sepatutnya menjadi otak yang menentukan. Kod Etika SPJ
Faktor kepercayaan - mengapa pendedahan mengubah peratusan yang boleh diterima 🧡
Orang ramai bukan sahaja menilai kandungan berdasarkan kualiti. Mereka menilainya berdasarkan hubungan . Dan hubungan datang dengan perasaan yang terlibat. (Menjengkelkan, tetapi benar.)
Jika khalayak anda percaya:
-
awak telus,
-
anda bertanggungjawab,
-
awak tak berpura-pura kepakaran,
...maka anda selalunya boleh menggunakan lebih banyak AI tanpa tindak balas.
Tetapi jika khalayak anda merasakan:
-
automasi tersembunyi,
-
"cerita peribadi" palsu,
-
pihak berkuasa yang dihasilkan,
...maka sumbangan AI yang kecil pun boleh mencetuskan reaksi "tidak, saya keluar". Dilema ketelusan: Pendedahan & kepercayaan AI (Schilke, 2025) Kertas kerja Institut Oxford Reuters mengenai pendedahan & kepercayaan AI (2024)
Jadi apabila anda bertanya Apakah Peratusan AI yang Boleh Diterima? , sertakan pembolehubah tersembunyi ini:
-
Amanah akaun bank tinggi? Anda boleh berbelanja lebih banyak AI.
-
Akaun bank amanah rendah? AI menjadi kaca pembesar pada semua yang anda lakukan.
"Masalah suara" - mengapa peratusan AI boleh meratakan kerja anda secara senyap 😵💫
Walaupun AI tepat, ia sering melicinkan bahagian tepi. Dan bahagian tepi adalah tempat personaliti hidup.
Simptom-simptom terlalu banyak AI dalam Lapisan Suara:
-
Semuanya kedengaran optimistik, seperti cuba menjual sofa berwarna kuning air kepada anda
-
Gurauan sampai... tetapi kemudian minta maaf
-
Pendapat yang kuat dicairkan menjadi "ia bergantung"
-
Pengalaman khusus menjadi "kata ramai orang"
-
Penulisan anda menghilangkan kebiasaan kecil yang istimewa (yang biasanya merupakan kelebihan anda)
Inilah sebabnya mengapa banyak strategi "AI yang boleh diterima" kelihatan seperti ini:
-
AI membantu dengan struktur + kejelasan
-
Manusia membekalkan rasa + penilaian + cerita + pendirian 😤
Kerana rasa adalah bahagian yang paling sukar untuk diautomasikan tanpa bertukar menjadi oat.
Cara menetapkan dasar peratusan AI yang tidak akan gagal pada hujah pertama 🧩
Jika anda melakukan ini untuk diri sendiri atau pasukan, jangan tulis dasar seperti:
"Tidak lebih daripada 30% AI."
Orang ramai akan segera bertanya, "Bagaimana kita mengukurnya?" dan kemudian semua orang menjadi letih dan kembali melakukannya.
Sebaliknya, tetapkan peraturan mengikut lapisan dan risiko : NIST AI RMF 1.0 Prinsip AI OECD
Templat dasar yang boleh dilaksanakan (curi ini)
-
AI dibenarkan untuk: sumbang saran, penggarisan, suntingan kejelasan, pemformatan, draf terjemahan ✅
-
AI dihadkan untuk: analisis asal, tuntutan akhir, topik sensitif, "nasihat pakar" yang dihadapi orang ramai ⚠️ WHO: Etika & tadbir urus AI untuk kesihatan
-
Sentiasa diperlukan: semakan manusia, semakan fakta untuk butiran khusus, pengesahan akauntabiliti 🧍
-
Tidak pernah dibenarkan: testimoni palsu, kelayakan yang direka-reka, cerita "Saya telah mencuba ini" yang direka-reka 😬 Komen FTC yang merujuk kepada dakwaan AI yang mengelirukan Reuters: Tindakan keras FTC terhadap dakwaan AI yang mengelirukan (2024-09-25)
Kemudian, jika anda memerlukan nombor, tambahkan julat:
-
Dalaman berisiko rendah: sehingga "bantuan tinggi"
-
Kandungan awam: “bantuan sederhana”
-
Maklumat berisiko tinggi: “bantuan minimum”
Ya, ia memang kabur. Hidup ini memang kabur. Cuba untuk menjadikannya jelas adalah bagaimana anda berakhir dengan peraturan karut yang tidak dipatuhi oleh sesiapa pun. 🙃
Senarai semak kendiri praktikal untuk “Berapakah Peratusan AI yang Boleh Diterima?” 🧠✅
Apabila anda memutuskan sama ada penggunaan AI anda boleh diterima, semak perkara ini:
-
Anda boleh mempertahankan proses itu dengan kuat tanpa menggeliat.
-
AI tidak memperkenalkan sebarang dakwaan yang anda tidak sahkan. OpenAI: Adakah ChatGPT mengatakan yang sebenarnya?
-
Outputnya kedengaran seperti anda, bukan seperti pengumuman lapangan terbang.
-
Jika seseorang mempelajari AI membantu, mereka tidak akan rasa tertipu. Reuters dan AI (pendekatan ketelusan)
-
Jika ini salah, anda boleh namakan siapa yang cedera - dan betapa teruknya. NIST AI RMF 1.0
-
Anda telah menambah nilai tulen, bukannya menekan Jana dan menghantarnya.
Jika ia mendarat dengan bersih, "peratusan" anda mungkin baik-baik saja.
Juga, pengakuan kecil: kadangkala penggunaan AI yang paling beretika adalah menjimatkan tenaga anda untuk bahagian yang memerlukan otak manusia. Bahagian yang sukar. Bahagian yang paling rumit. Bahagian "Saya perlu memutuskan apa yang saya percaya". 🧠✨
Ringkasan ringkas dan nota penutup 🧾🙂
Jadi - Apakah Peratusan AI yang Boleh Diterima? kurang bergantung pada matematik dan lebih bergantung pada taruhan, lapisan, pengesahan dan kepercayaan . NIST AI RMF 1.0
Jika anda mahukan hidangan mudah untuk dibawa pulang:
-
Taruhan rendah + kerja dalaman: AI boleh menjadi sebahagian besar (malah sebahagian besarnya) jika manusia bertanggungjawab Prinsip AI OECD
-
Kandungan awam: AI baik-baik saja dalam peranan sokongan, tetapi pertimbangan manusia mesti mendorong mesej tersebut
-
Maklumat berisiko tinggi (kesihatan, perundangan, keselamatan, kewartawanan): panduan WHO yang diselia dengan teliti AP: Piawaian sekitar AI generatif
-
Jangan sekali-kali menggunakan AI untuk memalsukan pengalaman hidup, kelayakan atau hasil - di situlah kepercayaan akan mati 😬 Komen FTC yang merujuk kepada dakwaan AI yang mengelirukan Panduan AI Pejabat Hak Cipta AS
Dan inilah kenyataan saya yang sedikit dramatik (kerana manusia melakukan itu):
Jika kerja anda dibina atas kepercayaan, maka "AI yang boleh diterima" adalah apa sahaja yang masih melindungi kepercayaan itu apabila tiada siapa yang memerhati. Cadangan UNESCO mengenai Etika AI
Berikut ialah versi Soalan Lazim anda yang lebih terperinci dan lebih padu:
Soalan Lazim
Berapakah peratusan AI yang boleh diterima dalam kebanyakan jenis kerja?
Tiada peratusan tunggal yang sesuai untuk setiap tugasan. Piawaian yang lebih baik adalah menilai penggunaan AI berdasarkan kepentingan yang terlibat, risiko kesilapan, jangkaan khalayak dan bahagian kerja yang dibantu oleh AI untuk dihasilkan. Bahagian yang tinggi mungkin sesuai untuk nota dalaman, manakala bahagian yang jauh lebih rendah adalah lebih bijak untuk bahan yang boleh dilihat oleh umum atau sensitif.
Bagaimanakah saya harus mengukur penggunaan AI tanpa terlalu memikirkan peratusan yang tepat?
Pendekatan praktikal adalah berfikir secara berlapis-lapis dan bukannya cuba memberikan nombor kepada setiap ayat. Artikel ini membingkaikan penggunaan AI merentasi lapisan idea, draf, suntingan, fakta dan suara. Ini menjadikan risiko lebih mudah untuk dinilai, memandangkan penglibatan AI dalam fakta atau suara peribadi biasanya lebih penting daripada membantu dengan sumbang saran atau tatabahasa.
Berapakah peratusan AI yang boleh diterima untuk catatan blog dan kandungan pemasaran?
Untuk catatan blog dan pemasaran, sokongan AI sekitar 20% hingga 60% boleh dilaksanakan. AI boleh membantu dengan garis besar, struktur dan pembersihan, dengan syarat manusia masih mengawal suara dan mengesahkan dakwaan. Risiko meningkat dengan cepat apabila kandungan tersebut merangkumi perbandingan, testimoni atau bahasa yang kuat yang menyiratkan pengalaman peribadi.
Adakah dibenarkan menggunakan AI untuk tugasan sekolah atau penulisan akademik?
Dalam suasana akademik, penggunaan yang boleh diterima selalunya jauh lebih rendah, biasanya sekitar 0% hingga 30%, bergantung pada peraturan dan tugasan. Penggunaan yang lebih selamat termasuk sumbang saran, penggarisan, sokongan tatabahasa dan bantuan belajar. Masalah bermula apabila AI menyediakan analisis, hujah atau pemikiran asli yang dijangka dihasilkan oleh pelajar.
Berapakah penggunaan AI yang boleh diterima untuk dokumen dan e-mel tempat kerja dalaman?
Penulisan di tempat kerja selalunya merupakan salah satu kategori yang lebih fleksibel, dengan sekitar 30% hingga 80% bantuan AI adalah perkara biasa. Banyak dokumen dalaman dinilai lebih berdasarkan kejelasan dan kelajuan berbanding keaslian. Walaupun begitu, semakan manusia masih penting apabila bahan tersebut merangkumi bahasa dasar, butiran sensitif atau dakwaan fakta yang penting.
Bolehkah pasukan sokongan pelanggan banyak bergantung pada balasan AI?
Dalam banyak aliran kerja, ya, walaupun hanya dengan penghadang yang kukuh. Artikel tersebut mencadangkan kira-kira 40% hingga 90% sokongan AI untuk respons pelanggan apabila pasukan mempunyai laluan peningkatan, sumber pengetahuan yang diluluskan dan semakan untuk kes yang luar biasa. Bahaya yang lebih besar bukanlah automasi itu sendiri tetapi AI yang membuat janji, pengecualian atau komitmen yang yakin yang tidak pernah dimaksudkan untuk dibuat.
Berapakah peratusan AI yang boleh diterima untuk kesihatan, perundangan, kewartawanan atau topik berisiko tinggi yang lain?
Dalam medan berisiko tinggi, soalan peratusan kurang penting berbanding soalan kawalan. AI mungkin membantu dengan transkripsi, ringkasan kasar atau organisasi, tetapi penilaian dan pengesahan muktamad haruslah kekal bersifat manusiawi. Dalam bidang ini, bantuan penulisan AI yang boleh diterima selalunya diminimumkan, sekitar 0% hingga 25%, kerana kos kesilapan yang diyakini adalah jauh lebih tinggi.
Adakah pendedahan penggunaan AI membuatkan orang ramai lebih menerimanya?
Dalam banyak kes, ketelusan membentuk tindak balas lebih daripada peratusan mentah. Orang ramai cenderung lebih selesa dengan bantuan AI apabila prosesnya terasa terbuka, bertanggungjawab dan tidak menyamar sebagai kepakaran manusia atau pengalaman hidup. Walaupun sedikit automasi tersembunyi boleh menghakis kepercayaan apabila pembaca rasa tertipu tentang siapa yang mencipta karya tersebut.
Mengapakah AI kadangkala menjadikan penulisan terasa mendatar walaupun secara teknikalnya betul?
Artikel tersebut menggambarkan perkara ini sebagai masalah suara. AI sering melicinkan prosa menjadi sesuatu yang digilap tetapi generik, yang boleh menguras humor, keyakinan, kekhususan dan watak individu. Itulah sebabnya banyak pasukan membiarkan AI menyokong struktur dan kejelasan sementara manusia mengekalkan kawalan terhadap cita rasa, pertimbangan, penceritaan dan sudut pandangan yang kuat.
Bagaimanakah sesebuah pasukan boleh menetapkan dasar AI yang akan diikuti oleh orang ramai?
Dasar yang boleh dilaksanakan biasanya tertumpu pada tugasan dan risiko dan bukannya had peratusan yang ketat. Artikel ini mengesyorkan agar AI digunakan untuk sumbang saran, penggarisan, penyuntingan, pemformatan dan penterjemahan draf, sambil mengehadkannya untuk analisis asal, subjek sensitif dan nasihat pakar. Ia juga harus memerlukan semakan manusia, pemeriksaan fakta, akauntabiliti dan larangan yang jelas terhadap testimoni palsu atau pengalaman yang direka-reka.
Rujukan
-
Pertubuhan Kesihatan Sedunia (WHO) - Panduan WHO tentang AI generatif dalam kesihatan - who.int
-
Pertubuhan Kesihatan Sedunia (WHO) - Etika & tadbir urus AI untuk kesihatan - who.int
-
Institut Piawaian dan Teknologi Kebangsaan (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
Institut Piawaian dan Teknologi Kebangsaan (NIST) - Profil GenAI (AI RMF) - nvlpubs.nist.gov
-
Organisasi untuk Kerjasama dan Pembangunan Ekonomi (OECD) - Prinsip AI OECD - oecd.ai
-
UNESCO - Cadangan mengenai Etika AI - unesco.org
-
Pejabat Hak Cipta AS - Panduan dasar AI - copyright.gov
-
Suruhanjaya Perdagangan Persekutuan (FTC) - Komen yang merujuk kepada risiko tuntutan pemasaran AI - ftc.gov
-
Jabatan Pendidikan UK (DfE) - AI Generatif dalam pendidikan - gov.uk
-
Associated Press (AP) - Piawaian sekitar AI generatif - ap.org
-
Persatuan Wartawan Profesional (SPJ) - Kod Etika SPJ - spj.org
-
Reuters - Tindakan keras FTC terhadap dakwaan AI yang mengelirukan (2024-09-25) - reuters.com
-
Reuters - Reuters dan AI (pendekatan ketelusan) - reuters.com
-
Universiti Oxford (Institut Reuters) - Pendedahan & kepercayaan AI (2024) - ora.ox.ac.uk
-
ScienceDirect - Dilema ketelusan: Pendedahan & kepercayaan AI (Schilke, 2025) - sciencedirect.com
-
OpenAI - Mengapa model bahasa berhalusinasi - openai.com
-
Pusat Bantuan OpenAI - Adakah ChatGPT memberitahu kebenaran? - help.openai.com