⚖️ Saman antropik untuk menyekat senarai hitam Pentagon berhubung sekatan penggunaan AI ↗
Anthropic telah membawa perbalahannya dengan Pentagon ke mahkamah selepas dilabel sebagai risiko rantaian bekalan. Syarikat itu mengatakan langkah itu adalah tindakan balas yang menyalahi undang-undang kerana enggan melonggarkan pagar penghadang di sekitar senjata autonomi dan pengawasan domestik - yang meletakkan pertikaian ini antara titik perbalahan yang paling mudah terbakar dalam dasar AI sekarang. ( Reuters )
Kerajaan mahukan fleksibiliti untuk "sebarang penggunaan yang sah," manakala Anthropic berhujah bahawa makmal swasta masih harus dibenarkan untuk menetapkan garis keselamatan yang tegas. Ini telah menjadi salah satu ujian paling jelas setakat ini sama ada syarikat AI boleh berkata "tidak" kepada istilah ketenteraan tanpa dipaksa. ( Reuters )
🧑💻 Pekerja di seluruh OpenAI dan Google menyokong saman Anthropic terhadap Pentagon ↗
Saman itu dengan cepat mendapat sokongan daripada makmal pesaing dalam juga. Hampir 40 pekerja dari OpenAI dan Google menyokong Anthropic dalam satu taklimat amicus, dengan alasan bahawa tindakan membalas dendam terhadap firma mengenai garisan merah keselamatan AI melanggar kepentingan awam. ( The Verge )
Jadi ya, pesaing tiba-tiba mendapati diri mereka berada di pihak yang sama - sekurang-kurangnya dalam hal ini. Ringkasan ini memberi tumpuan kepada pengawasan besar-besaran dan senjata autonomi yang tidak boleh dipercayai, yang menjadikan keseluruhan urusan terasa kurang seperti tembakan biasa di Silicon Valley dan lebih seperti barisan industri tulen di atas pasir... atau lumpur, mungkin. ( The Verge )
🛡️ OpenAI memperoleh Promptfoo untuk mendapatkan ejen AInya ↗
OpenAI berkata ia akan membeli Promptfoo, sebuah syarikat baharu yang menumpukan pada melindungi model bahasa besar daripada serangan musuh. Rancangannya adalah untuk menggabungkan teknologinya ke dalam OpenAI Frontier, platform perusahaan syarikat untuk ejen AI. ( TechCrunch )
Ia satu langkah yang penting. Semua orang mahukan AI ejentik melakukan lebih banyak perkara, lebih pantas, di mana-mana sahaja - tetapi bahagian keselamatan telah ketinggalan, sama ada sedikit atau banyak. Perjanjian ini menunjukkan OpenAI berpendapat perlumbaan utama seterusnya bukan sahaja untuk ejen yang lebih bijak, tetapi juga untuk ejen yang lebih selamat. ( TechCrunch )
🧪 Anthropic melancarkan alat semakan kod untuk menyemak limpahan kod yang dijana AI ↗
Anthropic melancarkan Kajian Kod dalam Claude Code, yang disasarkan kepada pasukan yang lemas dalam permintaan tarik yang dicipta oleh alat pengekodan AI. Ia menggunakan berbilang ejen secara selari untuk mengimbas kod, isu logik penandaan, keterukan kedudukan dan meninggalkan komen terus dalam GitHub. ( TechCrunch )
Cadangannya cukup mudah - AI menjana kod lebih pantas daripada yang boleh disemak oleh manusia secara bijak, jadi kini AI perlu menyemak semula AI tersebut. Susunan ekornya yang sedikit seperti memakan ular, namun praktikal. Anthropic mengatakan ia ditujukan kepada pengguna perusahaan yang sudah melihat output kod yang besar daripada Claude Code. ( TechCrunch )
💰 Nscale yang disokong Nvidia bernilai $14.6 bilion dalam pusingan pembiayaan baharu ↗
Syarikat infrastruktur AI UK, Nscale, telah mengumpul $2 bilion dalam pusingan Siri C, dengan penilaian bernilai $14.6 bilion. Penyokong termasuk Aker, 8090 Industries, Nvidia, Citadel, Dell dan Jane Street - yang merupakan undian keyakinan yang agak besar. ( Reuters )
Ini penting kerana ia bukanlah satu lagi pelancaran model atau tweak chatbot. Ia adalah bahagian penting dalam perkembangan pesat - pengkomputeran, infrastruktur, kapasiti, semua jentera berat di sebalik tabir. Mungkin tidak glamor, tetapi di situlah sebahagian besar wang kini terbelanjakan. ( Reuters )
🧠 Makmal AMI Yann LeCun mengumpul $1.03 bilion untuk membina model dunia ↗
Usaha niaga baharu Yann LeCun, AMI Labs, telah mengumpul $1.03 bilion pada penilaian pra-wang sebanyak $3.5 bilion. Syarikat itu sedang mengejar "model dunia" - sistem AI yang bertujuan untuk belajar daripada realiti itu sendiri dan bukannya terutamanya daripada bahasa. ( TechCrunch )
Itu adalah perubahan falsafah langsung terhadap konsensus semasa yang beratnya berkaitan LLM, dan juga ketara blak-blakan. LeCun telah berhujah selama bertahun-tahun bahawa model bahasa hari ini tidak akan membawa kita ke tahap kecerdasan manusia, jadi peningkatan ini mengubah hujah itu menjadi eksperimen yang sangat mahal. ( TechCrunch )
🇨🇳 Hab teknologi Cina mempromosikan ejen AI OpenClaw walaupun terdapat amaran keselamatan ↗
Beberapa kerajaan tempatan China menyokong OpenClaw, ejen AI yang merebak dengan cepat meskipun terdapat kebimbangan keselamatan yang berkaitan dengan aksesnya kepada data peribadi. Jadi, suasana rasmi nampaknya: ya, terdapat risiko - dan ya, mari kita skalakannya. ( Reuters )
Perpecahan itulah ceritanya. Hab tempatan mahukan peningkatan ekonomi dan momentum ekosistem, sementara pengawal selia memberi amaran tentang pendedahan data. Ia merupakan corak AI yang biasa sekarang - pecut dahulu, kemaskan pagar kemudian, atau begitulah nampaknya. ( Reuters )
Soalan Lazim
Mengapa Anthropic menyaman Pentagon atas sekatan penggunaan AI?
Anthropic berkata Pentagon melabelkannya sebagai risiko rantaian bekalan selepas syarikat itu menolak terma yang lebih luas yang boleh meliputi senjata autonomi dan pengawasan domestik. Ini menjadikan tuntutan mahkamah itu lebih daripada sekadar status vendor. Ia sedang menguji sama ada makmal AI boleh mengekalkan had keselamatan yang tegas dan masih bersaing untuk kerja kerajaan tanpa dikenakan penalti.
Mengapakah pekerja OpenAI dan Google menyokong Anthropic dalam pertikaian keselamatan AI ini?
Taklimat amicus itu memberi isyarat bahawa ramai orang di dalam makmal pesaing melihat perkara ini sebagai isu keselamatan AI yang menjadi duluan, bukan sekadar pergaduhan antara satu syarikat dan satu agensi. Kebimbangan mereka ialah menghukum vendor kerana mengekalkan garisan merah boleh memberi tekanan kepada pasaran yang lebih luas untuk melemahkan perlindungan. Dalam praktiknya, itu boleh membentuk cara kontrak pertahanan dan sektor awam masa depan dirundingkan.
Apakah yang boleh diubah oleh kes Anthropic-Pentagon untuk dasar AI dan kontrak pertahanan?
Jika Anthropic menang, syarikat AI mungkin mempunyai kedudukan yang lebih kukuh untuk menentukan kegunaan yang tidak boleh diterima walaupun ketika menjual ke dalam persekitaran kerajaan yang sensitif. Jika ia kalah, agensi boleh mendapat pengaruh untuk menuntut istilah "penggunaan sah" yang lebih luas daripada pembekal. Walau apa pun, pertikaian ini berkemungkinan akan mempengaruhi bahasa perolehan, semakan risiko dan cara penghadang keselamatan ditulis dalam perjanjian pertahanan.
Mengapakah OpenAI membeli Promptfoo untuk ejen AI?
Promptfoo dikenali kerana menguji model bahasa yang besar terhadap gesaan adversarial dan kelemahan keselamatan yang lain. Melipat perkakasan seperti itu ke dalam platform ejen perusahaan OpenAI menunjukkan bahawa syarikat melihat penggunaan yang lebih selamat sebagai kelebihan daya saing dan bukannya tugas sampingan. Memandangkan ejen AI mengambil kerja yang lebih substantif, ujian daya tahan dan penyalahgunaan menjadi jauh lebih sukar untuk diabaikan.
Bagaimanakah pasukan boleh mengendalikan limpahan kod yang dijana AI dengan lebih selamat?
Ciri Semakan Kod baharu Anthropic dalam Claude Code disasarkan kepada pasukan yang dibebani oleh permintaan tarik yang dijana oleh alat pengekodan AI. Ia menggunakan berbilang ejen secara selari untuk mengenal pasti masalah logik, menilai tahap keterukan dan meninggalkan komen dalam GitHub. Biasanya, alat seperti ini membantu menilai volum, tetapi pengulas manusia masih penting untuk seni bina, konteks dan kelulusan akhir.
Mengapakah infrastruktur AI mendapat begitu banyak pelaburan sekarang?
Pusingan pembiayaan terbaru Nscale mengetengahkan bahawa industri AI masih mencurahkan modal yang besar ke dalam pengkomputeran, infrastruktur dan kapasiti. Perbelanjaan itu mungkin kurang ketara berbanding pelancaran model yang menarik, tetapi ia menyokong segala-galanya. Apabila permintaan untuk latihan dan penggunaan terus meningkat, syarikat yang menjual penyodok dan cangkul sering menjadi antara pemenang terbesar.
Apakah model dunia, dan mengapa Yann LeCun bertaruh pada mereka?
Model dunia ialah sistem AI yang direka untuk belajar daripada cara dunia bertindak, dan bukannya bergantung terutamanya pada data bahasa. Ini penting kerana Yann LeCun telah lama berhujah bahawa model bahasa itu sendiri tidak mungkin mencapai kecerdasan peringkat manusia. AMI Labs menjadikan pandangan itu sebagai pertaruhan komersial utama pada laluan berbeza untuk penyelidikan AI lanjutan.
Mengapa hab teknologi Cina menyokong OpenClaw walaupun terdapat amaran keselamatan?
Kisah OpenClaw menunjukkan perpecahan yang biasa dalam pasaran teknologi yang bergerak pantas: kerajaan tempatan mahukan pertumbuhan, subsidi dan momentum ekosistem, sementara pengawal selia bimbang tentang pendedahan dan keselamatan data. Menyokong ejen tersebut meskipun terdapat amaran menunjukkan insentif ekonomi sedang berleluasa di beberapa tempat. Bagi pemerhati, ia merupakan satu lagi peringatan bahawa penerimaan sering bergerak lebih pantas daripada pengawasan.