🧬 DeepMind melancarkan AlphaGenome untuk mengenal pasti pemacu genetik penyakit ↗
DeepMind memperkenalkan AlphaGenome, sebuah sistem AI yang bertujuan untuk meramalkan bagaimana mutasi DNA mengubah peraturan gen - pada asasnya bila gen dihidupkan, di mana, dan berapa kuatnya. Ia boleh mengimbas bahagian DNA yang besar sekaligus, termasuk kawasan bukan pengekodan yang luas yang selalunya terasa seperti jirim gelap biologi.
Cadangannya agak terus terang: pengenalpastian mutasi yang benar-benar penting untuk perkara seperti risiko kanser dan penyakit keturunan yang kompleks lebih pantas. Jika ia berfungsi seperti yang diiklankan, penyelidik menghabiskan lebih sedikit masa meneka dan lebih banyak masa menguji perkara yang betul - yang kedengaran jelas, tetapi itulah keseluruhan permainan.
🧑💼 Kecerdasan buatan akan menyebabkan kehilangan pekerjaan, akui Liz Kendall ↗
Setiausaha teknologi UK secara terbuka mengatakan bahawa penggunaan AI akan menyebabkan kehilangan pekerjaan - bukan suasana biasa seperti "janji akan baik-baik saja". Beliau menunjukkan kebimbangan mengenai peranan kemasukan siswazah dalam bidang seperti undang-undang dan kewangan, dan tidak berpura-pura ada jumlah yang boleh ditawarkan oleh sesiapa pun.
Pada masa yang sama, kerajaan sedang giat berusaha untuk menyesuaikan diri: satu usaha besar untuk melatih berjuta-juta pekerja dalam kemahiran asas AI, bertujuan untuk menjadikan UK sebagai negara yang lebih pantas menerima pakai AI. Ia adalah ketegangan klasik - ya pekerjaan akan hilang, ya pekerjaan akan muncul, tidak, ia tidak akan terasa lancar di tengah-tengahnya.
🗞️ UK mendesak Google untuk membenarkan laman web memilih untuk tidak menggunakan Gambaran Keseluruhan AI ↗
Pengawal selia persaingan UK mencadangkan perubahan yang akan membenarkan penerbit memilih untuk tidak menggunakan kandungan mereka untuk Gambaran Keseluruhan AI Google - atau untuk melatih model AI yang berdiri sendiri - tanpa dihukum dalam kedudukan carian biasa. Bahagian "tanpa dihukum" itu banyak membantu di sini.
Ideanya adalah untuk mengimbangi semula kuasa apabila ringkasan AI membentuk semula cara orang mengklik (atau tidak mengklik). Respons Google pada asasnya ialah: tingkah laku carian sedang berubah, kami sedang mempertimbangkan lebih banyak kawalan, tetapi jangan pecahkan produk tersebut kepada versi dirinya yang berpecah-belah secara janggal… yang, adil, tetapi juga mudah.
🛡️ Menjaga keselamatan data anda apabila ejen AI mengklik pautan ↗
OpenAI memperincikan risiko keselamatan ejen tertentu: penyusupan data berasaskan URL - di mana penyerang memperdaya AI untuk memuatkan URL yang secara senyap-senyap menyematkan maklumat peribadi dalam rentetan pertanyaan. Walaupun model tidak pernah "menyatakan" rahsia itu, permintaan itu sendiri boleh membocorkannya. Jahat, dan berteknologi rendah yang tidak disengajakan.
Pengurangan mereka adalah peraturan mudah yang tajam: ejen hanya perlu mengambil URL yang sudah umum dan diketahui wujud secara automatik melalui indeks web bebas. Jika pautan tidak disahkan sebagai umum, sistem harus memperlahankan dan mengembalikan kawalan kepada pengguna dengan amaran - geseran yang disengajakan, tetapi jenis yang baik.
🇪🇺 Bab seterusnya untuk AI di EU ↗
OpenAI menerbitkan pelan tindakan yang berfokuskan EU yang membingkaikan masalah "keupayaan yang tidak terjual" - model boleh melakukan lebih daripada yang digunakan oleh orang ramai dan perniagaan pada masa ini, dan jurang itu berisiko mendapat keuntungan yang tidak sekata di seluruh negara. Ia seperti memiliki kereta lumba dan hanya memandunya ke kedai di sudut jalan… kecuali kedai di sudut jalan adalah keseluruhan ekonomi anda.
Di samping retorik tersebut, terdapat juga perkara-perkara konkrit: program yang bertujuan untuk melatih beribu-ribu PKS Eropah dalam kemahiran AI, geran yang berkaitan dengan penyelidikan keselamatan dan kesejahteraan belia, dan postur "kerjasama dengan kerajaan" yang diperluas. Ia sebahagian memo dasar, sebahagian kempen penerimaan - dan ya, semuanya kabur bersama.
🔐 Risiko AI Bertemu Tadbir Urus Siber: Draf Profil Siber AI NIST ↗
Draf profil baharu daripada NIST (melalui analisis daripada penulisan firma guaman) memberi tumpuan kepada bagaimana organisasi harus memetakan AI ke dalam tadbir urus siber - kedua-duanya menjamin keselamatan sistem AI itu sendiri dan menggunakan AI untuk menambah baik pertahanan siber. Sukarela di atas kertas, tetapi "sukarela" mempunyai cara untuk menjadi dijangka dari semasa ke semasa.
Kumpulan draf tersebut mengusahakan tema seperti mengamankan komponen AI dan menggunakan pertahanan yang didayakan AI - termasuk pertimbangan rantaian bekalan dan automasi seperti ejen dalam aliran kerja tindak balas. Getarannya ialah: layan AI sebagai permukaan serangan baharu dan satu set alat baharu, dan jangan berpura-pura bahawa ia terbatal.
Soalan Lazim
Apakah AlphaGenome DeepMind, dan apakah masalah yang cuba diselesaikannya?
AlphaGenome ialah sistem AI yang dikatakan DeepMind boleh meramalkan bagaimana mutasi DNA mempengaruhi pengawalaturan gen - bila gen diaktifkan, di mana ia berlaku, dan sejauh mana kekuatannya. Ia dibina untuk mengimbas bahagian DNA yang sangat besar sekaligus, termasuk kawasan bukan pengekodan yang terkenal sukar untuk ditafsirkan. Tujuannya adalah untuk membantu penyelidik mengenal pasti mutasi yang paling berkemungkinan mendorong penyakit, supaya ujian makmal boleh menumpukan pada petunjuk yang paling menjanjikan.
Bagaimanakah AlphaGenome dapat membantu penyelidik mencari pemacu genetik penyakit dengan lebih pantas?
Dalam banyak aliran kerja genetik, kesesakan datang daripada mengecilkan senarai besar varian kepada beberapa varian yang secara munasabah mengubah aktiviti gen. Janji AlphaGenome adalah untuk mengurangkan tekaan itu dengan meramalkan bagaimana mutasi tertentu mungkin mengubah peraturan merentasi jujukan DNA yang panjang. Jika ramalan tersebut berlaku, pasukan boleh mengutamakan eksperimen sekitar varian yang kemungkinan besar berkaitan dengan risiko kanser atau keadaan warisan yang kompleks, dengan mengurangkan masa untuk penyelesaian yang tidak menentu.
Adakah penggunaan AI benar-benar akan menyebabkan pekerjaan di UK terjejas, dan peranan manakah yang paling berisiko?
Setiausaha teknologi UK, Liz Kendall, berkata penggunaan AI akan menyebabkan kehilangan pekerjaan dan menonjolkan kebimbangan mengenai peranan kemasukan siswazah. Beliau secara khusus merujuk kepada bidang seperti undang-undang dan kewangan, di mana tugasan awal kerjaya mungkin lebih boleh diautomasikan. Pada masa yang sama, kerajaan menekankan penyesuaian melalui latihan berskala besar dalam kemahiran asas AI, mengakui peralihan itu mungkin terasa tidak sekata walaupun peranan baharu muncul.
Bolehkah penerbit UK memilih untuk tidak menggunakan Gambaran Keseluruhan AI Google tanpa kehilangan kedudukan carian?
Pengawal selia persaingan UK telah mencadangkan perubahan yang akan membenarkan penerbit memilih untuk tidak menggunakan kandungan mereka untuk Gambaran Keseluruhan AI Google - atau untuk melatih model AI yang berdiri sendiri - tanpa dikenakan penalti dalam kedudukan carian standard. Matlamatnya adalah untuk mengimbangi semula kuasa apabila ringkasan AI mengubah tingkah laku klik. Google telah memberi isyarat bahawa ia sedang mempertimbangkan lebih banyak kawalan, sambil memberi amaran terhadap pengalaman carian yang berpecah-belah.
Bagaimanakah ejen AI boleh membocorkan data peribadi hanya dengan mengklik pautan?
OpenAI menerangkan risiko penyusupan data berasaskan URL di mana penyerang meminta ejen AI untuk mengambil pautan yang secara senyap-senyap membenamkan maklumat sensitif dalam rentetan pertanyaan. Walaupun model tidak pernah mengulangi rahsia dalam outputnya, permintaan itu sendiri boleh menghantarnya. Satu mitigasi biasa ialah menambah "geseran yang disengajakan", seperti amaran dan memerlukan pengesahan pengguna apabila pautan tidak disahkan secara bebas sebagai awam.
Apakah Draf Profil Siber AI NIST dan bagaimana ia mengubah tadbir urus siber?
Draf profil NIST (dibincangkan melalui analisis perundangan) membingkaikan AI sebagai sesuatu yang perlu dijamin dan sesuatu yang perlu digunakan dalam pertahanan siber. Ia menggabungkan kerja ke dalam tema seperti menjamin keselamatan komponen AI, menangani risiko rantaian bekalan dan menggunakan pertahanan yang didayakan AI - termasuk aliran kerja tindak balas yang lebih automatik seperti ejen. Walaupun secara sukarela pada namanya, rangka kerja seperti ini sering menjadi jangkaan de facto, mendorong organisasi untuk memetakan AI secara rasmi ke dalam tadbir urus dan kawalan.