Fransa'da AI: CNIL kırmızı çizgiler çiziyor - Dünyadan Güncel Teknoloji Haberleri

Fransa'da AI: CNIL kırmızı çizgiler çiziyor - Dünyadan Güncel Teknoloji Haberleri
Tahkim, duruma göre yapılacaktır CNIL, bir algoritmanın gelecekteki tüm uygulamalarının operatör tarafından tanımlanamayacağını kabul etmektedir Amaçları: Yapay zekanın kişisel verilere saygı duyan kullanımına yönelik bir çerçeve oluşturmak

Açıkça görülüyor ki otorite, yapay zeka sistemlerinin geliştirilmesinin mahremiyetin korunması hususlarıyla uyumlu olduğunu savunuyor

CNIL’in bildirdiğine göre, “Bazılarına göre, GDPR’den kaynaklanan kesinlik, en aza indirme, sınırlı koruma ve sınırlı yeniden kullanım ilkeleri, yapay zekanın belirli araştırmalarını veya uygulamalarını yavaşlatacak, hatta engelleyecektir

Ancak kullanılan veriler “gereksiz kişisel verilerin kullanımından kaçınırken algoritmanın eğitimini optimize edecek şekilde seçilmiş olmalıdır Bu bağlamda CNIL kendisini savaş düzenine soktu Bu “birçok durumda mümkündür”, özellikle de internette kamuya açık olan veriler Ama evet, bu sistemlerin tasarımcılarına aşılmaması gereken koşullar ve “kırmızı çizgiler” sunuluyor

Ancak bunun mutlaka “sistem tipini ve mümkün olan ana işlevleri” belirtmesi gerekir

GDPR yenilik ve sorumluluğu uzlaştırıyor

CNIL, ilk kılavuz serisinin yayınlanması yoluyla stratejisini uygulamaya devam ediyor ”

Ayrıca CNIL’in altını çizen GDPR, araştırma ve inovasyonla ilgili hükümler içeriyor ”

Yapay zekadaki gelişmelerle düzenlemeyi uzlaştırmanın mümkün olduğuna inanarak bu itirazlara yanıt veriyor Yine de dikkatli ol Düzenleyici zaten iki serinin daha geleceğini belirtmişti İkincisi, “üçüncü taraf verilerini kullanan yenilikçi AI oyuncuları için tasarlanmış bir rejime” izin veriyor Minimizasyon ilkesine ilişkin olarak CNIL, bunun çok büyük veri kümeleri üzerinde öğrenmeyi engellemediğini düşünmektedir Mayıs ayında da üç ana hedef içeren eylem planını sundu: Birleşmek, denetlemek ve denetlemek

Eğitim verilerinin saklanma süresi ne olacak? CNIL’e göre “haklı olması halinde uzun sürebilir”

Büyük Veri, ancak kötüye kullanım olmadan

Örneğin GDPR’nin amaç ilkesi yapay zeka için de geçerlidir ” Veri güvenliğini sağlamaya yönelik önlemler de “zorunludur” O zamandan bu yana bir sanal alan ve destek sistemi oluşturulması gibi çeşitli önlemler alındı

İle bu çizgiler Kılavuzlara göre CNIL, son aylarda dile getirilen “endişelere” ilk yanıtları sağlıyor ”



genel-15

Kullanıcı, “verilerin açıkça yasa dışı bir şekilde toplanmadığını ve yeniden kullanım amacının ilk toplamayla uyumlu olduğunu doğrulamalıdır Aynı şey “toplum tarafından yaygın olarak kullanılan standartlar” olarak hizmet edenler için de geçerlidir


Üretken yapay zekanın patlaması, yapay zeka ve kişisel verilerin korunmasına yönelik sunabileceği riskler hakkındaki tartışmayı yeniden alevlendirdi Eğitim aşamasında hedefleri kapsamlı bir şekilde listelemek zor olabilir

Yenilikçi oyuncular için tasarlanmış bir rejim

Son olarak veritabanlarının yeniden kullanımıyla ilgili

Ocak ayında idari makam yapay zekaya özel bir hizmet kurdu Bu endişeler özellikle 2019’dan bu yana yürürlükte olan Avrupa veri koruma düzenlemesi olan GDPR’nin belirli yönleriyle ilgilidir “Önemli bilimsel ve mali yatırım gerektiren” eğitim üsleri daha fazla hareket alanından yararlanabilir “Ayrıca bu zorunluluğun dikkate alınması, Avrupa değerlerine sadık etik sistemlerin, araçların ve uygulamaların ortaya çıkmasını sağlayacaktır