🦞 Pengasas OpenClaw Steinberger menyertai OpenAI, bot sumber terbuka menjadi asas ↗
Peter Steinberger sedang menuju ke OpenAI untuk menggalakkan "ejen peribadi," manakala OpenClaw sendiri diletakkan di dalam sebuah yayasan supaya ia kekal sumber terbuka (dan disokong). Perpecahan itu… agak bijak - upah pembina, pastikan projek itu awam.
Cadangan OpenClaw sangat praktikal: triaj e-mel, dokumen insurans, daftar masuk penerbangan, tugas pentadbir hayat yang menyusahkan. Ia juga telah dibesar-besarkan di GitHub, dan populariti itu telah menimbulkan kebimbangan keselamatan, terutamanya jika orang ramai menggunakannya secara cuai.
🪖 Pentagon 'muak' dengan bantahan Anthropic terhadap penggunaan model AI Claude oleh tentera, mungkin memutuskan hubungan, kata laporan ↗
Perjuangan teras: Pentagon mahukan akses yang luas, "semua tujuan yang sah", dan Anthropic masih cuba mengekalkan had yang ketat di sekitar senjata autonomi sepenuhnya dan pengawasan besar-besaran. Itulah jenis perselisihan faham yang kedengaran falsafah sehingga seseorang berkata, "kami mungkin menggantikan anda."
Satu perkara yang dipandang remeh - pegawai tidak mahu model itu tiba-tiba menyekat aliran kerja di pertengahan proses, dan mereka tidak mahu merundingkan kes-kes sampingan selama-lamanya (agaklah… tetapi juga aduh). Terdapat ketegangan sebenar "siapa yang memegang kunci" di sini, dan ia tidaklah halus.
🧠 Model pembinaan syarikat permulaan untuk meramalkan tingkah laku manusia ↗
Simile telah melabur sebanyak $100 juta untuk membina model "pembelajaran terhad" yang bertujuan untuk meramalkan apa yang mungkin dilakukan oleh orang ramai - termasuk, secara khusus, menjangkakan soalan yang mungkin timbul dalam perkara seperti panggilan pendapatan. Sasaran yang sempit, cita-cita yang besar, kombinasi yang sedikit menakutkan.
Pendekatan ini bergantung pada temu bual dengan orang sebenar serta data penyelidikan tingkah laku, kemudian menjalankan simulasi dengan ejen AI yang bertujuan untuk mencerminkan pilihan sebenar. Ia seperti membuat model cuaca untuk keputusan manusia… yang kedengaran mustahil sehingga ia tidak wujud.
🧑⚖️ Scoop: Rumah Putih memberi tekanan kepada penggubal undang-undang Utah untuk membatalkan rang undang-undang ketelusan AI ↗
Satu usaha untuk meningkatkan ketelusan AI peringkat negeri di Utah mendapat tentangan langsung daripada Rumah Putih, dengan para pegawai menggesa penaja rang undang-undang itu supaya tidak meneruskannya. Pembingkaian rang undang-undang itu adalah mengenai ketelusan dan keselamatan kanak-kanak - sukar untuk dipertikaikan berdasarkan perspektif tulen.
Tetapi pertarungan yang lebih besar adalah dari segi bidang kuasa: siapa yang akan menetapkan peraturan, negeri atau kerajaan persekutuan. Dan ya, ia satu pergaduhan - seperti dua orang yang memegang stereng yang sama dan menegaskan bahawa merekalah yang paling tenang.
🎬 ByteDance berikrar untuk menghalang penggunaan IP tanpa kebenaran pada alat video AI selepas ancaman Disney ↗
Disney telah menghantar arahan gencatan senjata ke atas penjana video AI ByteDance, dan ByteDance mengatakan ia sedang memperkukuh langkah perlindungan untuk mencegah penggunaan IP dan persamaan tanpa kebenaran. Aduan tersebut - didakwa - ialah alat tersebut boleh mengeluarkan watak francais yang biasa seolah-olah mereka hanyalah… pelekat domain awam.
Ia adalah perlanggaran yang disangkakan oleh semua orang: alat video AI yang tular bergerak pantas, studio bergerak dalam proses litigasi, dan "kami akan menambah perlindungan" menjadi bahasa permohonan maaf lalai. Secara kebetulan, teknologinya kelihatan seperti sihir - dan sisi perundangan kelihatan seperti graviti.
Soalan Lazim
Apakah maksudnya pengasas OpenClaw menyertai OpenAI manakala OpenClaw berpindah ke sebuah yayasan?
Ia menandakan perpecahan antara orang yang membina "ejen peribadi" dan projek yang kekal ditadbir urus secara terbuka. Steinberger yang menyertai OpenAI mencadangkan beliau akan menumpukan perhatian untuk memajukan produk ala ejen di sana. Meletakkan OpenClaw dalam sebuah yayasan bertujuan untuk memastikan ia sumber terbuka dan disokong secara lestari. Dalam praktiknya, langkah ini bertujuan untuk memelihara kepercayaan komuniti sementara pembina pergi ke tempat sumber berada.
Mengapakah ejen AI gaya OpenClaw memberi tumpuan kepada kerja rumah seperti e-mel dan kerja kertas?
Kerana kerja "pentadbiran seumur hidup" adalah berulang, berasaskan peraturan dan memakan masa, menjadikannya sasaran praktikal untuk automasi. Contoh-contoh di sini - triaj e-mel, kertas kerja insurans dan daftar masuk penerbangan - adalah tugas yang sempit dengan kriteria kejayaan yang jelas. Tumpuan itu boleh membuatkan ejen berasa berharga lebih cepat daripada pembantu yang lebih terbuka. Ia juga menggariskan mengapa kawalan akses yang teliti penting apabila ejen menyentuh akaun peribadi.
Bagaimanakah anda boleh menggunakan ejen AI sumber terbuka seperti OpenClaw tanpa mewujudkan masalah keselamatan?
Anggap ia seperti perisian yang boleh melihat data sensitif, bukan seperti skrip mainan. Pendekatan biasa adalah mengunci kelayakan, mengehadkan kebenaran kepada minimum yang diperlukan dan menyimpan log dan jejak audit. Jalankan ia dalam persekitaran yang terhad dan asingkannya daripada sistem bernilai tinggi. Banyak kebimbangan keselamatan berpunca daripada penggunaan yang cuai, terutamanya apabila orang ramai mendedahkan titik akhir atau token tanpa perlindungan yang kukuh.
Mengapakah Pentagon tidak berpuas hati dengan sekatan Anthropic terhadap Claude untuk kegunaan ketenteraan?
Pertikaian itu tertumpu pada skop dan kawalan: Pentagon mahukan akses "semua tujuan yang sah" yang luas, manakala Anthropic digambarkan sebagai mengekalkan had keras di sekitar senjata autonomi sepenuhnya dan pengawasan besar-besaran. Pegawai juga tidak mahu model menyekat aliran kerja di pertengahan atau memerlukan rundingan kes sampingan yang tidak berkesudahan. Ketegangan itu kurang abstrak daripada yang kedengaran - ia mengenai siapa yang memutuskan apa yang boleh dilakukan oleh model dalam operasi sebenar.
Bagaimanakah syarikat baharu cuba meramalkan tingkah laku manusia dengan AI, dan mengapa ia terasa kontroversi?
Contoh di sini, Simile, sedang melaksanakan model "pembelajaran terhad" yang bertujuan untuk meramalkan apa yang mungkin dilakukan oleh orang ramai, termasuk menjangka soalan yang mungkin timbul dalam konteks seperti panggilan pendapatan. Pendekatan yang diterangkan menggabungkan temu bual dengan data penyelidikan tingkah laku dan simulasi menggunakan ejen AI yang bertujuan untuk mencerminkan pilihan sebenar. Ia terasa menakutkan kerana ia mengubah AI daripada bertindak balas kepada orang ramai kepada meramalkan mereka. Cabarannya adalah untuk memastikan tuntutan terbatas dan mengelakkan terlalu yakin.
Apa yang berlaku apabila alat video AI menjana aksara berhak cipta, seperti dalam pertembungan ByteDance-Disney?
Corak yang dilaporkan adalah biasa: sebuah studio mengeluarkan gencatan senjata, dan platform tersebut bertindak balas dengan memperkukuh perlindungan bagi mencegah penggunaan IP atau persamaan tanpa kebenaran. Dalam banyak alatan, perlindungan bermaksud penapis kandungan yang lebih ketat, pengesanan aksara yang dapat dikenali yang lebih baik dan penguatkuasaan dasar pengguna yang lebih jelas. Konflik yang mendasarinya ialah kelajuan lawan liabiliti - penjanaan viral bergerak pantas dan penguatkuasaan hak bertindak seperti graviti. Jangkakan lebih banyak perlanggaran ini apabila penjana video merebak.