Yapay Zeka Tehlikeli, Ama Düşündüğünüz Gibi Değil
- Mehmet KÜÇÜKKOÇ
- 9 Ağu
- 2 dakikada okunur
Son yıllarda yapay zeka (YZ) teknolojileri hızlı bir gelişim içinde. Medyada sıkça "Yapay zeka insanlığın sonunu getirebilir" gibi çarpıcı başlıklar görsek de, bu korkuların dışında daha somut ve güncel riskler de bulunuyor. Yapay zeka araştırmacısı Sasha Luccioni, TED konuşmasında YZ'nin gerçek tehlikelerine dikkat çekiyor ve bu teknolojiyi daha sürdürülebilir, etik ve şeffaf hale getirmek için neler yapılması gerektiğini anlatıyor.
Yapay Zekanın Enerji Tüketimi ve Çevresel Etkileri
Yapay zeka modelleri, bulut ortamlarında, yani metal ve plastikten yapılmış büyük veri merkezlerinde çalışıyor. Ancak bu süreç büyük miktarda enerji harcıyor ve dolayısıyla çevreye ciddi zarar veriyor. Örneğin, Luccioni’nin yer aldığı BigScience projesinde oluşturulan Bloom adlı açık kaynaklı büyük dil modelinin eğitimi, bir yıl boyunca ortalama 30 hanenin enerji tüketimine eşdeğer enerji kullanmış ve 25 ton karbon dioksit salımına yol açmıştır. Bu miktar, bir arabanın dünyayı 5 kere dolaşmasına denk geliyor.
Daha büyük modellerin (örneğin GPT-3) karbon ayak izi ise çok daha fazla. Ancak teknoloji şirketleri bu tüketim ve salınım verilerini şeffaf biçimde paylaşmıyor. YZ’de "daha büyük, daha iyi" anlayışı ile modeller giderek büyüyor, bu da çevresel etkileri katlanarak artırıyor. Bu nedenle, enerji ve karbon salınımını ölçen, hesaplayan ve azaltmaya yönelik araçlar geliştirmek kritik önemde.
Sanat ve Yazarlığın Rızası Olmadan Kullanılması
Yapay zeka modellerinin eğitiminde kullanılan büyük veri setleri genellikle sanatçılar ve yazarlar gibi içerik üreticilerinin izni olmadan oluşturuluyor. Bu, telif hakları ve etik açıdan ciddi bir sorun. Örneğin Spawning.ai tarafından geliştirilen “Have I Been Trained?” adlı araç, içerik üreticilerinin kendi eserlerinin eğitim veri setlerinde kullanılıp kullanılmadığını kontrol etmelerine olanak sağlıyor.
Sanatçılar Karla Ortiz gibi isimler, çalışmalarının izinsiz kullanımına karşı yapay zeka şirketlerine toplu davalar açtı. Bu durum, içerik sahiplerinin haklarını koruyacak mekanizmaların acilen oluşturulması gerektiğini ortaya koyuyor.
Yapay Zekada Tarafsızlık ve Adalet Sorunları
Yapay zeka modellerinde ırkçılık, cinsiyetçilik ve diğer önyargılar sıkça görülüyor. Örneğin Dr. Joy Buolamwini’nin yaptığı çalışmalar, yüz tanıma sistemlerinin beyaz olmayan kadınları daha düşük doğrulukla tanıdığını ortaya koydu. Bu tip önyargılar, hukuk ve güvenlik alanlarında yapay zeka kullanıldığında yanlış suçlamalar ve haksız tutuklamalara yol açabiliyor.
Luccioni, bu sorunları görselleştirmek ve anlamak için “Stable Bias Explorer” adlı bir araç geliştirdi. Araç, meslekler üzerinden yapay zeka modellerinin nasıl yanlı davrandığını gösteriyor; örneğin bilim insanları hep erkek ve beyaz olarak temsil ediliyor. Bu durum toplumsal adalet ve eşitlik açısından büyük bir sorun.
Geleceğe Dair Çözüm Önerileri
Luccioni, yapay zekanın gelecekteki varoluşsal risklerine odaklanmanın yerine, şu an yaşanan somut etkilerin üzerine gitmenin daha önemli olduğunu vurguluyor. Bunu başarmak için:
Enerji tüketimini ve karbon salınımını ölçen ve azaltan araçlar geliştirilmeli (örneğin CodeCarbon),
Yapay zeka eğitiminde kullanılan verilerin etik, şeffaf ve rıza ile toplanması sağlanmalı,
Model tarafsızlığını ölçen ve düzeltmeye yardımcı olan teknolojiler yaygınlaştırılmalı,
Yapay zekanın etkileri kamuoyu ve yasa koyucular için görünür hale getirilmeli.
Bu adımlar, daha güvenilir, sürdürülebilir ve adil yapay zeka sistemlerinin inşasını mümkün kılacaktır.
Sonuç
Yapay zeka gerçekten güçlü ve etkili bir teknoloji. Ancak onu sadece bilim kurgu senaryolarındaki gibi kıyamet getiren bir güç olarak görmek, gerçek ve güncel sorunları göz ardı etmek anlamına geliyor. Enerji tüketimi, telif hakları, önyargılar gibi konulara odaklanarak, yapay zekayı toplum ve gezegen için daha faydalı bir hale getirebiliriz. Sasha Luccioni’nun da belirttiği gibi, bu yolu hep birlikte, bilinçli ve sorumlu şekilde yürümeliyiz.




Yorumlar