Berita AI 10 Januari 2026

Ringkasan Berita AI: 10 Januari 2026

Indonesia menyekat akses kepada chatbot AI Musk, Grok, atas imej deepfake

Indonesia menyekat sementara Grok selepas ia digunakan untuk menghasilkan deepfake seksual tanpa persetujuan - termasuk imej yang menyasarkan wanita dan kanak-kanak. Kerajaan menganggapnya sebagai isu hak asasi manusia dan keselamatan awam, bukan kesulitan teknologi yang kecil.

Tekanannya adalah tumpul: jika sesuatu alat boleh "menanggalkan pakaian" orang sebenar yang diarahkan, beban pembuktian akan bertukar. Platform perlu menunjukkan bahawa mereka boleh mencegahnya, bukan sekadar berikrar bahawa mereka sedang memikirkannya.

Elon Musk berkata UK mahu menyekat kebebasan bersuara kerana X menghadapi kemungkinan larangan

Menteri-menteri UK secara terbuka mengenakan denda - dan juga menyekat X - selepas Grok digunakan untuk menghasilkan imej lucah tanpa persetujuan. Musk menolak dengan pembingkaian kebebasan bersuara yang biasa... tetapi postur undang-undang di UK semakin merosot daripada "kelab debat" ke arah "tarikh akhir pematuhan."

Ofcom sedang digesa untuk bertindak pantas, dan penggubal undang-undang menunjukkan corak suram yang sama: sebaik sahaja imej tersebar, bahaya tidak akan menunggu kemas kini dasar dengan sabar.

🧑💻 OpenAI dilaporkan meminta kontraktor memuat naik kerja sebenar daripada pekerjaan lepas

OpenAI, bersama rakan kongsi data latihan, dilaporkan meminta kontraktor untuk memuat naik artifak kerja sebenar daripada kerja lepas (dan semasa) - seperti dokumen, hamparan, dek, repo. Matlamat yang dinyatakan adalah untuk menilai dan menambah baik ejen AI dalam tugasan jenis pejabat.

Bahagian yang sukar difahami itu jelas, dan agak tidak nyata: kontraktor diberitahu untuk membersihkan maklumat sensitif sendiri. Amanah yang tinggi untuk diletakkan dalam perancangan yang pantas - seperti meminta seseorang untuk mematikan bom menggunakan sarung tangan ketuhar, dengan penuh kasih sayang.

🗂️ OpenAI Meminta Kontraktor untuk Memuat Naik Kerja Daripada Pekerjaan Lalu untuk Menilai Prestasi Ejen AI

Satu laporan berasingan menyelidiki persediaan yang sama dan mengapa ia membimbangkan peguam privasi dan IP. Walaupun semua orang bertindak dengan niat baik, "alih keluar barang sulit" adalah arahan yang agak rumit apabila anda berurusan dengan dokumen korporat yang sebenar.

Ia juga membayangkan strategi yang lebih besar: Ejen AI bukan lagi sekadar pembantu juruterbang yang suka berbual - mereka dilatih untuk meniru realiti kerja sebenar yang kusut masai dan berbilang fail. Praktikal, ya. Juga sedikit… aduh.

🏦 Allianz dan Anthropic Forge Perkongsian Global untuk Memajukan AI Bertanggungjawab dalam Insurans

Allianz dan Anthropic mengumumkan perkongsian global yang tertumpu pada tiga landasan: produktiviti pekerja, automasi operasi melalui AI agentik dan pematuhan mengikut reka bentuk. Insurans adalah berkaitan dengan kertas kerja, jadi "agentik" di sini pada asasnya bermaksud mengautomasikan aliran kerja yang kompleks tanpa kehilangan jejak audit.

Suasananya ialah: lakukan automasi yang hebat, tetapi simpan resit. Dalam industri yang dikawal selia, itulah satu-satunya cara ini dapat diskalakan tanpa menjadi piñata liabiliti.

🕵️♂️ Kenyataan sebagai respons kepada Grok AI pada X

Pengawal selia perlindungan data UK mengatakan ia telah menghubungi X dan xAI untuk mendapatkan penjelasan tentang cara mereka mengendalikan data peribadi dan melindungi hak orang ramai, memandangkan kebimbangan mengenai kandungan yang dihasilkan oleh Grok. Ia bukan sekadar "penyederhanaan kandungan" - ia juga sama ada data orang ramai diproses secara sah, dan sama ada hak dilindungi.

Ini adalah jenis langkah pengawalseliaan yang kedengaran sopan, kemudian secara senyap-senyap menjadi sangat serius jika jawapannya kabur… atau mengelak, atau kedua-duanya sekali.

Soalan Lazim

Mengapakah Indonesia menyekat akses kepada Grok AI?

Indonesia menyekat Grok buat sementara waktu selepas ia dilaporkan digunakan untuk menghasilkan deepfake seksual tanpa persetujuan, termasuk imej yang menyasarkan wanita dan kanak-kanak. Pegawai membingkaikan langkah itu sebagai isu hak asasi manusia dan keselamatan awam, bukan pertikaian teknologi kecil. Mesej yang mendasarinya ialah "kami akan memperbaikinya kemudian" tidak berkesan apabila alat boleh menyebabkan kemudaratan segera yang tidak dapat dipulihkan.

Apakah yang dipertimbangkan oleh UK selepas deepfake yang dihasilkan oleh Grok muncul di X?

Menteri-menteri UK secara terbuka membincangkan denda dan juga kemungkinan menyekat X selepas Grok digunakan untuk mencipta imej lucah tanpa persetujuan. Nada politik dan peraturan beralih ke arah pematuhan yang boleh dikuatkuasakan, bukan perdebatan terbuka. Perkara yang terus dibangkitkan oleh penggubal undang-undang ialah masa: sebaik sahaja imej tersebar, mangsa menghadapi bahaya lama sebelum platform menerbitkan dasar yang dikemas kini.

Apakah maksudnya apabila pengawal selia "membalikkan beban pembuktian" untuk alat imej AI?

Idea "beban pembuktian bertukar" adalah platform mungkin perlu menunjukkan bahawa mereka boleh mencegah bahaya tertentu - seperti menjana imej "menanggalkan pakaian" tanpa persetujuan - dan bukannya sekadar menjanjikan perlindungan. Dalam praktiknya, ini mendorong syarikat ke arah kawalan yang boleh dibuktikan, penguatkuasaan yang boleh diukur dan pengendalian kegagalan yang jelas. Ia juga menandakan bahawa "niat" kurang penting daripada hasil yang ketara dan pencegahan yang boleh diulang.

Bagaimanakah platform boleh mengurangkan risiko deepfake tanpa persetujuan yang dihasilkan oleh AI?

Pendekatan biasa ialah pencegahan berlapis: hadkan gesaan dan output yang dikaitkan dengan orang sebenar, sekat permintaan gaya "menanggalkan pakaian" dan kesan serta hentikan percubaan untuk menjana imej berunsur seksual tanpa persetujuan. Banyak saluran paip menambah had kadar, pemantauan identiti dan penyalahgunaan yang lebih kukuh dan aliran kerja penghapusan yang pantas sebaik sahaja kandungan tersebar. Matlamatnya bukan sekadar bahasa dasar, tetapi juga alat yang tahan di bawah penggunaan yang bermusuhan.

Mengapakah muat naik dokumen kerja sebenar oleh kontraktor OpenAI menimbulkan kebimbangan?

Laporan mengatakan OpenAI (dengan rakan kongsi data latihan) meminta kontraktor memuat naik artifak kerja sebenar - dokumen, hamparan, dek dan repo - untuk menilai dan menambah baik ejen AI tugas pejabat. Kebimbangannya ialah kontraktor diberitahu untuk membersihkan butiran sensitif sendiri, yang boleh menyebabkan ralat. Peguam privasi dan IP bimbang arahan "mengalih keluar bahan sulit" ini terlalu samar-samar untuk bahan korporat sebenar.

Apakah kepentingan kerjasama Allianz dengan Anthropic dalam “AI ejentik” dalam insurans?

Allianz dan Anthropic menggambarkan perkongsian global yang tertumpu pada produktiviti pekerja, automasi operasi menggunakan AI agentik dan pematuhan mengikut reka bentuk. Aliran kerja insurans adalah kompleks dan dikawal selia dengan ketat, jadi "agentik" selalunya membayangkan pengautomasikan proses berbilang langkah tanpa kehilangan akauntabiliti. Penekanan pada jejak audit dan "menyimpan resit" mencerminkan realiti praktikal: automasi hanya berskala dalam industri yang dikawal selia apabila ia kekal boleh diperiksa dan dipertahankan.

Berita AI semalam: 9 Januari 2026

Cari AI Terkini di Kedai Pembantu AI Rasmi

Tentang Kami

Kembali ke blog