Berita AI 17 Disember 2025

Ringkasan Berita AI: 17 Disember 2025

💰 Amazon sedang berbincang untuk melabur $10 bilion dalam pembangun ChatGPT

Amazon dilaporkan sedang berbincang untuk melabur lebih daripada $10 bilion dalam OpenAI - dan jika ia benar-benar berlaku, ia akan mendorong penilaian OpenAI ke zon "tunggu, serius?" melebihi $500 bilion. Ia diletakkan sebagai gabungan pembiayaan dan penjajaran strategik… serta pendorong paling mudah: keperluan pengiraan.

Laporan itu juga mencadangkan OpenAI boleh lebih bergantung pada kapasiti AWS dan berpotensi mula menggunakan cip Trainium Amazon, pada asasnya mengubahnya menjadi saluran bekalan untuk gelombang penskalaan model seterusnya (atau begitulah nampaknya - perbincangan ini boleh goyah).
🔗 Baca lebih lanjut

🧑💻 Pembangun kini boleh menghantar aplikasi ke ChatGPT

OpenAI telah membuka penyerahan aplikasi untuk semakan dan penerbitan di dalam ChatGPT, di samping direktori aplikasi dalam produk di mana orang ramai boleh menyemak imbas aplikasi pilihan atau mencari apa sahaja yang telah diterbitkan. Aplikasi boleh dicetuskan di pertengahan perbualan melalui @sebutan atau dipilih daripada menu alat - sangat "aplikasi, tetapi berasaskan sembang".

Mereka juga sedang melancarkan SDK Aplikasi (beta) serta sekumpulan sumber pembangunan (contoh, pustaka UI, permulaan pantas). Pengewangan adalah berhati-hati buat masa ini - kebanyakannya memautkan untuk menyelesaikan transaksi - tetapi agak jelas OpenAI mahu ini berkembang menjadi ekosistem sebenar.
🔗 Baca lebih lanjut

🗞️ Memperkenalkan Akademi OpenAI untuk Organisasi Berita

OpenAI melancarkan hab pembelajaran yang disasarkan kepada wartawan, editor dan penerbit, yang dibina dengan rakan kongsi seperti Projek Kewartawanan Amerika dan Institut Lenfest. Pitch: latihan praktikal dan buku panduan yang membantu bilik berita menggunakan AI tanpa menghakis kepercayaan dalam proses tersebut secara senyap-senyap.

Senarai pelancaran Akademi ini merangkumi “AI Essentials for Journalists,” serta kes penggunaan seperti penyelidikan penyiasatan/latar belakang, terjemahan, analisis data dan kecekapan pengeluaran. Terdapat juga penekanan yang sangat ketara terhadap penggunaan yang bertanggungjawab dan tadbir urus dalaman - kerana, ya, seseorang perlu menulis dokumen dasar yang tiada siapa mahu tulis.
🔗 Baca lebih lanjut

⚡ Gemini 3 Flash: kecerdasan sempadan yang dibina untuk kelajuan

Google melancarkan Gemini 3 Flash sebagai model yang lebih pantas dan menjimatkan kos - dan menjadikannya lalai dalam aplikasi Gemini dan Mod AI dalam Carian. Pidatonya pada asasnya ialah “Penaakulan gred profesional, kelajuan tahap Flash,” yang kedengaran seperti slogan… tetapi juga menggambarkan keseluruhan perlumbaan sekarang.

Ia juga sedang digunakan merentasi permukaan pembangun dan perusahaan (Gemini API, AI Studio, Vertex AI dan banyak lagi). Subteks yang pelik dan besar: Google mahukan model ini di mana-mana sahaja orang ramai sudah berada, jadi kos pertukaran mula terasa seperti graviti.
🔗 Baca lebih lanjut

🧩 OpenUSD dan NVIDIA Halos Mempercepatkan Keselamatan untuk Robotaxis, Sistem AI Fizikal

NVIDIA menggabungkan piawaian simulasi dan aliran kerja keselamatan ke dalam susunan "AI fizikal" yang lebih koheren - robot dan kenderaan autonomi yang perlu mengharungi huru-hara dunia sebenar. Bahan utama ialah Spesifikasi Teras OpenUSD 1.0, yang bertujuan untuk menjadikan saluran paip 3D/simulasi lebih boleh diramal dan boleh dikendalikan merentasi pelbagai alatan.

Dari segi keselamatan, NVIDIA mengetengahkan Makmal Pemeriksaan Sistem AI Halos (dan program pensijilan) untuk armada robotaxi, susunan AV, sensor dan platform. Peserta awal yang dinamakan termasuk Bosch, Nuro dan Wayve, dengan Onsemi dipanggil sebagai yang pertama lulus pemeriksaan - detik "lencana dibuka kunci" yang menarik.
🔗 Baca lebih lanjut

🧪 Makmal UC San Diego Memajukan Penyelidikan AI Generatif Dengan Sistem NVIDIA DGX B200

Makmal AI Hao, UC San Diego menerima sistem NVIDIA DGX B200 untuk mendorong penyelidikan mengenai inferens LLM berlatensi rendah - sistem paip tidak glamor yang menentukan sama ada “AI terasa segera” atau “AI terasa seperti menunggu roti bakar.” NVIDIA juga menyatakan bahawa sistem inferens pengeluaran seperti Dynamo menggunakan konsep daripada kerja makmal, termasuk DistServe.

Cerita ini lebih condong kepada "goodput" berbanding daya pemprosesan - pada asasnya, daya pemprosesan yang masih mencapai sasaran latensi. Ia juga menerangkan pemisahan praisi dan penyahkodan merentasi GPU yang berbeza untuk mengurangkan gangguan sumber, yang memang agak nerd, tetapi ia adalah jenis nerd yang mengubah cara sesuatu produk terasa.
🔗 Baca lebih lanjut

🏗️ Hut 8 menandatangani perjanjian kapasiti 245MW dengan Fluidstack sebagai sebahagian daripada perkongsian berbilang gigawatt dengan Anthropic

Hut 8 telah menandatangani perjanjian jangka panjang untuk kapasiti 245MW di kampus River Bend, dengan memajakkan kepada firma awan AI Fluidstack dalam struktur bernilai $7 bilion (dengan pilihan yang boleh melonjakkannya jauh lebih tinggi). Anthropic terikat sebagai pengguna akhir melalui perkongsian yang lebih luas - ini adalah infrastruktur perlombongan kripto yang beralih menjadi kekuatan AI sekali lagi, cuma… lebih besar.

Terdapat juga tawaran hak pertama sehingga 1GW tambahan di River Bend, serta penglibatan pembiayaan daripada bank-bank utama dan sokongan Google. Sejujurnya, keseluruhannya berbunyi seperti “AI mahukan kuasa dan hartanah - dan ia mahukannya semalam.”
🔗 Baca lebih lanjut

Berita AI semalam: 16 Disember 2025

Cari AI Terkini di Kedai Pembantu AI Rasmi

Tentang Kami

Kembali ke blog