Berita AI 4 Mac 2026

Ringkasan Berita AI: 4 Mac 2026

🏛️ Kerajaan akan mewujudkan makmal baharu untuk memastikan UK terus berada di landasan pantas dalam kejayaan AI

UK sedang menubuhkan Makmal Penyelidikan AI Asas yang disokong kerajaan, menyifatkannya sebagai kerja "langit biru" - jenis yang berisiko, perlahan, dan kadangkala membuahkan hasil dengan cara yang membuatkan orang lain kelihatan seperti mereka telah tertidur. ( GOV.UK )

Tumpuannya bukan sekadar "model yang lebih besar, lebih banyak GPU" - ia menangani kelemahan berterusan seperti halusinasi, ingatan pendek dan penaakulan yang tidak dapat diramalkan, serta memberi penyelidik akses kepada pengiraan yang serius melalui Sumber Penyelidikan AI. Kedengaran sangat masuk akal… dan juga, secara senyap, seperti percubaan untuk menghentikan minda terbaik UK daripada terus dikosongkan di tempat lain. ( GOV.UK )

🧨 Ketua Pegawai Eksekutif Nvidia memberi bayangan tentang berakhirnya pelaburan dalam OpenAI, Anthropic

Jensen Huang memberi isyarat bahawa Nvidia mungkin tidak akan terus melabur dalam makmal AI sempadan dengan cara yang sama - dengan dinamik IPO (dan skala pemeriksaan yang banyak dibincangkan) menjadikan gaya pembiayaan itu lebih sukar untuk dilaksanakan. ( Reuters )

Ia merupakan perubahan ton yang perlu diberi perhatian: Nvidia ialah raja yang suka menyodok dalam seluruh ledakan ini, namun ia mengisyaratkan bahawa "memiliki bahagian pelombong" bukan lagi sekadar sandiwara. Atau mungkin ia hanya sekadar lindung nilai secara lantang, yang dilakukan oleh CEO, seperti bernafas. ( Reuters )

🧩 Eksklusif: Kumpulan teknologi besar menyokong Anthropic dalam perjuangan Pentagon ketika pelabur berusaha untuk meredakan pertembungan mengenai perlindungan AI

Ketegangan Anthropic di Pentagon bertukar menjadi periuk tekanan penuh - pelabur dilaporkan mahu suhu diturunkan, sementara syarikat itu cuba mengekalkan pendiriannya dalam bahasa perlindungan (terutamanya mengenai pengawasan). ( Reuters )

Subteks cerita ini hampir lebih lantang daripada teks: dalam era AI, susunan kata kontrak bukanlah "penipuan undang-undang," ia pada asasnya dasar produk - dan ia menentukan sama ada model menjadi alat, senjata atau liabiliti yang meluas. ( Reuters )

🪖 Sam Altman mengakui OpenAI tidak dapat mengawal penggunaan AI Pentagon

Altman dilaporkan memberitahu kakitangan bahawa OpenAI tidak dapat mengawal bagaimana Pentagon menggunakan AInya sebaik sahaja ia digunakan - yang akan menyebabkan dentuman kerana ia menyatakan ketakutan sebenar yang ditimbulkan oleh orang ramai. ( The Guardian )

Latar belakang yang lebih luas ialah pergeseran yang semakin meningkat antara "kami akan membantu, dengan peraturan" dan "kami akan membantu, noktah," serta reaksi balas dalaman dan awam apabila pengambilan tentera terasa tergesa-gesa atau bersifat oportunistik. Etika di sini bukanlah garis panduan yang kemas dan lebih kepada tumpahan cat basah - semua orang campur tangan, kemudian berhujah tentang siapa yang terlibat. ( The Guardian )

🧬 Persahabatan AI baharu dalam genomik dengan institut Sanger dan Google DeepMind

Institut Wellcome Sanger melancarkan fellowship akademik yang dibiayai oleh DeepMind yang memberi tumpuan kepada penggunaan AI kepada genomik - diletakkan sebagai slot pertama seumpamanya untuk felo DeepMind dalam bidang khusus ini. ( sanger.ac.uk )

Apa yang menarik (dan, terus terang, agak menyegarkan) ialah penekanan pada masalah genomik yang kurang diterokai di mana AI belum wujud di mana-mana - ditambah pula dengan nota eksplisit bahawa DeepMind tidak mengarah penyelidikan rakan sekerja itu. Ia seperti memberi seseorang roket dan berkata "pergi temui sesuatu," dan bukannya "pergi optimumkan pelan tindakan kita." ( sanger.ac.uk )

Soalan Lazim

Apakah Makmal Penyelidikan AI Asas yang disokong kerajaan UK, dan apakah yang akan dilakukannya?

Makmal Penyelidikan AI Asas yang disokong kerajaan sedang diletakkan sebagai usaha penyelidikan "langit biru" - kerja berisiko tinggi yang mungkin mengambil masa untuk membuahkan hasil. Daripada hanya menumpukan pada penskalaan model yang lebih besar, ia bertujuan untuk menangani isu-isu berterusan seperti halusinasi, ingatan pendek dan penaakulan yang tidak dapat diramalkan. Intinya ialah kejayaan datang daripada asas, bukan sekadar menambah lebih banyak GPU.

Bagaimanakah Makmal Penyelidikan AI Asas UK dapat membantu penyelidik mengakses pengkomputeran yang serius?

Di samping Makmal Penyelidikan AI Asas UK, pelan ini mengetengahkan akses kepada pengkomputeran yang besar melalui Sumber Penyelidikan AI. Dalam praktiknya, ini bermaksud penyelidik boleh menjalankan eksperimen yang sebaliknya akan dikekang oleh kos atau infrastruktur. Ia juga membolehkan pasukan menguji idea pada skala di mana masalah seperti kebolehpercayaan dan kekukuhan menjadi konkrit, bukan sekadar teori.

Mengapakah UK menekankan halusinasi, ingatan pendek dan penaakulan yang tidak dapat diramalkan?

Kelemahan tersebut adalah jenis yang timbul dalam penggunaan dan boleh menghakis kepercayaan dengan cepat. Fokus yang dinyatakan menunjukkan matlamatnya bukan sekadar keupayaan, tetapi kebolehpercayaan - mengurangkan output yang direka-reka, menambah baik cara model mengendalikan konteks yang lebih panjang dan menjadikan penaakulan kurang tidak menentu. Kerja seperti itu selalunya lebih perlahan dan berisiko, itulah sebabnya ia dibingkaikan sebagai penyelidikan asas.

Apakah sebenarnya isyarat perubahan nada Nvidia terhadap pelaburan dalam OpenAI atau Anthropic?

Pelaporan itu membingkaikannya sebagai petunjuk bahawa Nvidia mungkin tidak akan terus melabur dalam makmal sempadan dengan cara yang sama, terutamanya apabila dinamik IPO dan saiz cek yang besar merumitkan strategi tersebut. Walaupun sebagai peneraju "pilih-pilih" dalam perkakasan AI, ia menunjukkan bahawa kepentingan pemilikan tidak selalunya merupakan langkah terbaik. Ia juga boleh menjadi mesej yang berhati-hati, yang biasa terdapat dalam komen eksekutif.

Mengapakah pertikaian Pentagon Anthropic tentang “bahasa perlindungan” menjadi masalah besar?

Inti pati artikel tersebut ialah susunan kata kontrak boleh menjadi dasar produk - terutamanya apabila ia menyentuh pengawasan dan kegunaan sensitif yang lain. Pelabur dilaporkan mahu mengurangkan ketegangan itu, sementara syarikat cuba mengekalkan garis panduannya mengenai perlindungan. Dalam banyak penggunaan AI, klausa-klausa tersebut membentuk untuk apa sistem itu boleh digunakan, dan risiko apa yang diterima oleh syarikat secara berkesan.

Apakah maksudnya apabila Sam Altman mengatakan OpenAI tidak dapat mengawal cara Pentagon menggunakan AI?

Ia menggambarkan batasan praktikal: sebaik sahaja alat digunakan, pembangun asal mungkin mempunyai keupayaan terhad untuk mengawal penggunaan hiliran. Ini amat penting kerana ia menunjukkan kebimbangan utama yang ditimbulkan oleh orang ramai tentang penggunaan ketenteraan - peraturan mungkin wujud pada peringkat kontrak, tetapi penguatkuasaan boleh menjadi sukar. Ia juga mencerminkan ketegangan yang lebih luas antara "bantuan, dengan kekangan" dan "bantuan, tanpa mengira."

Berita AI semalam: 3 Mac 2026

Cari AI Terkini di Kedai Pembantu AI Rasmi

Tentang Kami

Kembali ke blog