Yapay zeka yasası kapsamında, makine öğrenimi sistemleri toplum için oluşturdukları potansiyel riske göre dört ana kategoriye ayrılacak.
Avrupa Parlamentosu (AP), yapay zekay kullanımını düzenlemeyi hedefleyen kuralları içeren yasa tasarısını ezici çoğunlukla onayladı.
AP genel kurul oturumunda yapılan oylamada, 523 “evet”, 46 “hayır” 49 “çekimser” oyu çıktı.
AB Konseyi’nin de onayını alması beklenen yasa gelecek yıldan itibaren kademeli olarak yürürlüğe girecek.
Tasarının raportörlerinden İtalyan Sosyalist üye Brando Benifei düzenlediği basın toplantısında, AP’nin hazırlanan metne onay vermesini tarihi bir gün" olarak nitelendirdi.
Benifei, "Yapay zekanın güvenli ve insan merkezli gelişimi için net bir yol çizen dünyadaki ilk düzenlemeye kavuştuk. Artık elimizde parlamentonun önceliklerini yansıtan bir metin var. Şimdi asıl mesele işletmelerin ve kurumların uygulaması ve uyumu olacak. Ayrıca, işyerindeki koşullar ve yapay zeka ile diğer ayrıntılarla ilgili için daha fazla mevzuat üzerinde çalışıyoruz." dedi.
Tasarının diğer raportörü Romanya’da Dragoş Tudorache ise aynı konferansta, AB'nin kuralların küresel etkisini sağlamak için diğer ülkelerle işbirliği yapılacağını ifade etti.
Tudorache, “Bu ortak kuralların nasıl teşvik edileceği konusunda başkalarıyla birlikte çalışmaya açık olmalı ve benzer düşünen taraflarla bir yönetişim oluşturmalıyız." dedi.
Yapay zeka yasası kapsamında, makine öğrenimi sistemleri toplum için oluşturdukları potansiyel riske göre dört ana kategoriye ayrılacak.
Buna göre yüksek riskli olarak kabul edilen sistemler, AB pazarına girmeden önce uygulanacak katı kurallara tabi olacak.
Genel amaçlı yapay zeka kuralları, mayıs 2025'te yürürlüğe girdikten bir yıl sonra, yüksek riskli sistemler için yükümlülükler ise üç yıl içinde uygulanacak.
Bunlar, Avrupa Komisyonu bünyesindeki yapay zeka dairesi tarafından desteklenen ulusal makamların gözetimi altında olacak. Ulusal gözetim ajanslarının kurulması artık üye devletlere bağlı olacak.
AB Komisyonu temsilcisi Euronews'e yaptığı açıklamada, ülkelerin bu denetçileri atamak için 12 ay süreleri olduğunu söyledi.
Bu arada AB’nin dijital teknolojiyi desteklemek için kurduğu “Digital Europe” Başkanı Cecilia Bonefeld-Dahl bugünkü oylamayla ilgili yaptığı açıklamada, şirketlerin Avrupa'da kalması için daha fazla şey yapılması gerektiğini söyledi.
Bonefeld-Dahl, "Bugün, dünyadaki yapay zeka yatırımlarının sadece yüzde 3'ü AB'den geliyor; ABD'de yapay zekaya yaklaşık 14 kat, Çin'de ise beş kat daha fazla özel yatırım yapılıyor.” dedi.
Bonefeld-Dahl, 2030 yılına kadar küresel yapay zeka pazarının 1,5 trilyon dolara ulaşmasının beklendiğini ve Avrupalı şirketlerin bürokrasiye takılmadan bu pazardan yararlanmalarının sağlanması gerektiği uyarısında bulundu.
Yapay zekanın çocuklara yönelik istismarda kullanılmasının önüne nasıl geçilecek?
Avrupa Tüketici Örgütü (BEUC) Genel Müdür Yardımcısı Ursula Pachl, yasanın onaylanmasını memnuniyetle karşıladıklarını belirterek, tüketicilerin aynı yapay zeka sistemi tarafından zarar görmeleri halinde toplu tazminat taleplerini destekleme konusunda yardımcı olacakları güvencesini verdi.
Mevzuatın tüketicileri korumak için daha da ileri gitmesi gerektiğini vurgulayan Pachl, buna rağmen Avrupa Komisyonu ve ulusal hükümetler için en önemli önceliğin, bu mevzuatı gecikmeden hayata geçirip, yasanın uygulanmasıyla ilgili gerekli kaynakları sağlayarak bu konuda ciddi olduklarını göstermek olmalı.” dedi.
Yasa ne öngörüyor?
Yasaya göre, AB ülkelerinde kullanılacak yapay zeka sistemlerinin güvenli olması, temel haklara ve Birlik değerlerine saygı gösterilmesi gerekecek.
Yapay zeka sistemleri, topluma zarar verme ihtimaline göre "risk temelli" bir yaklaşımla düzenlenecek.
Yüksek riskli yapay zeka sistemlerine daha katı kurallar getirilecek.
Sınırlı riskli yapay zeka sistemleri, kullanıcıların bilinçli kararlar alabilmesi için içeriğin yapay zeka tarafından oluşturulduğunu açık biçimde bildirecek. Bu sistemler, hafif şeffaflık yükümlülüklerine tabi tutulacak.
Çeşitli yüksek riskli yapay zeka sistemlerine izin verilecek ancak yüksek riskli yapay zeka sistemlerinin AB pazarına erişimi bir dizi katı kural ve yükümlülüğe tabi olacak.
Yapay zekanın bazı kullanımlarındaki risk "kabul edilemez" olarak değerlendirilecek ve bu sistemler AB'de yasaklanacak.
Bilişsel davranış manipülasyonu, yüz görüntülerinin internetten veya kapalı kamera sistem görüntülerinden hedefsiz alınması, iş yerinde ve eğitim kurumlarında duygu tanıma, sosyal puanlama, cinsel yönelim veya dini inançlar gibi hassas verileri çıkarmak için biyometrik sınıflandırma yapılması yasak kapsamına girecek.
Kolluk kuvvetleri, faaliyetlerinde yapay zekayı kullanabilecek. Kolluk kuvvetleri, acil durum prosedürü ile normalde uygunluk değerlendirme prosedürünü geçemeyen yüksek riskli bir yapay zeka aracını devreye sokabilecek.
Kural ihlalinde şirketlere yüksek para cezaları kesilecek
Emniyet birimleri, istisnai ve gerekli durumlarda kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerini izin alarak kullanabilecek. Bu tür yapay zeka sistemleri kullanımı, terör saldırıları, mevcut veya öngörülebilir tehditlerin önlenmesi ve en ciddi suçlardan şüphelenilen kişilerin aranması gibi durumlarla sınırlı olacak.
Video, metin, görüntü oluşturma, başka dilde konuşma, hesaplama veya bilgisayar kodu yazma gibi çok çeşitli görevleri ifa edebilen büyük sistemlere özel kurallar getirilecek. Söz konusu genel amaçlı yapay zeka sistemlerinin piyasaya sürülmeden önce çeşitli şeffaflık yükümlülüklere uyması sağlanacak.
Kural ihlalinde şirketlere yüksek para cezaları kesilecek.