Yapay Zeka ve Etik

Yapay Zeka ve Etik

Yapay zekânın giderek daha önemli hale gelmesiyle birlikte, uzmanlar yeni AI araçlarının oluşturulması ve uygulanması konusunda etik sınırlara ihtiyaç duyulduğuna dikkat çekiyor.

 

Yapay zekâ (AI) teknolojisinin amacı insanı güçlendirmek olsa da bu teknoloji insanı taklit etmek için tasarlandığında, insan muhakemesini bile bulanıklaştırabilecek sorunlar teknolojiye de sızabiliyor. Bunun sonucunda önyargılı veya yanlış veriler üzerine inşa edilen AI projeleri, özellikle yeterince temsil edilmeyen gruplar ve bireyler için zararlı sonuçlar doğurabiliyor. Bunun ötesinde, AI algoritmaları ve makine öğrenimi modelleri yeterli titizlikle oluşturulmadığında mühendislerin ve ürün yöneticilerinin sistemin öğrendiği önyargıları düzeltmesi zor hale gelebiliyor. Bu nedenle gelecekteki riskleri azaltmak için geliştirme sürecine etik kuralları dahil etmek, etikle ilgili sorunların üstesinden gelmeyi kolaylaştırabilir.

 

Yapay zekâ etiği, şirketlerin yapay zekânın sorumlu ve adil bir şekilde geliştirilmesine ve kullanımına rehberlik etmek için kullandığı ahlaki ilkeler olarak tanımlanabilir. Bu kapsamda geliştirici mühendislerden hükümet yetkililerine kadar tüm paydaşların AI teknolojisini sorumlu bir şekilde geliştirilmesini ve kullanmasını sağlayacak yol gösterici ilkeler, yapay zekâya güvenli, emniyetli, insancıl ve çevre dostu bir yaklaşım için gerekli çerçeveyi çiziyor.

 

Yapay zekânın etik zorlukları

Büyük verinin ortaya çıkmasıyla birlikte şirketler, organizasyonları genelinde otomasyonu ve veriye dayalı karar almayı desteklemeye odaklandılar. Genellikle iş sonuçlarını iyileştirme niyeti olsa da şirketler, özellikle zayıf ön araştırma tasarımı ve önyargılı veri kümeleri nedeniyle bazı AI uygulamalarında öngörülemeyen sonuçlarla karşılaşıyor.

Yapay zekâ etiğine dair sorunlar arasında veri sorumluluğu ve gizlilik, adalet, açıklanabilirlik, sağlamlık, şeffaflık, çevresel sürdürülebilirlik, katılım, ahlaki temsil, değer uyumu, hesap verebilirlik, güven ve teknolojinin kötüye kullanımı yer alıyor. Örneğin;

 

Önyargı: Yapay zekâ, değerlendirme için gereken temsil verilerini doğru bir şekilde toplamazsa kararları önyargıya açık olabiliyor. Örneğin, 2018'de Amazon, içinde "kadın" kelimesinin yer aldığı özgeçmişlerin derecesini düşüren işe alım aracı nedeniyle önemli bir sorunla karşı karşıya kaldı. Bu AI aracının kadınlara karşı ayrımcılık yapması, Amazon için ciddi eleştirilere ve hukuki riske neden oldu. Amazon, sonra programları bu belirli kelimelere karşı tarafsız olacak şekilde düzenledi. Ancak kaynaklar, bunun, makinelerin adayları sınıflandırmak için ayrımcı olabilecek başka yöntemler geliştirmeyeceğinin garantisi olmadığını ifade ediyor.

 

Gizlilik:  AI internet aramalarından, sosyal medya fotoğraflarından ve yorumlarından, çevrimiçi satın alımlardan ve çok çeşitli etkileşim ve paylaşımlardan elde edilen verilere dayanıyor. Bu, müşteri deneyiminin kişiselleştirilmesine yardımcı olsa da şirketlerin kişisel bilgilerimize erişmesine yönelik gerçek onaylar alıp almadığına dair sorular doğuruyor.

 

Çevre: Bazı AI modelleri verileri eğitmek için önemli miktarda enerji gerektiriyor. Enerji açısından verimli yapay zekâya yönelik yöntemler geliştirmek için araştırmalar yapılırken, çevresel etik kaygıların AI ile ilgili politikalara dahil edilmesi gerekliliği ortaya çıkıyor.

 

AI geliştirme ve kullanımında adil olmayan sonuçlara dair örnekleri gün ışığına çıktıkça, başta araştırma ve veri bilimi toplulukları öncülüğünde olmak üzere, bu konuya ilişkin endişeleri gidermek için yeni kılavuzlar ortaya çıktı. Bu alanda önde gelen şirketler de, ürünlerinde etik standartları korumadaki başarısızlığın bazı sonuçlarını deneyimlemeye başladıkları için bu yönergeleri şekillendirme konusunda harekete geçiyor. Çünkü bu alanda gerekli özenin gösterilmemesi, itibarın zedelenmesine ve yasal risklerin ortaya çıkmasına, aynı zamanda maliyetli cezalara yol açabiliyor.

 

Daha etik yapay zekâ nasıl oluşturulur?

Yapay zekânın sorumlu kullanımı ve geliştirilmesine yönelik etik ilkelerin geliştirilmesi, sektör aktörlerinin birlikte çalışmasını gerektiriyor. Paydaşlar sosyal, ekonomik ve politik konuların yapay zekâ ile nasıl kesiştiğini incelemeli ve makinelerle insanların nasıl uyum içinde bir arada yaşayabileceğini belirlemeli. Örneğin IBM, Google ve Meta gibi büyük teknoloji şirketlerinin, büyük miktarda veri toplanmasından kaynaklanan etik sorunların üstesinden gelmek için ekipler oluşturdukları biliniyor. Aynı zamanda hükümet ve hükümetler arası kuruluşlar da akademik araştırmalara dayalı olarak düzenlemeler ve etik politikaları geliştirmeye başlıyor.

 

Bu teknoloji, nasıl tasarlandığına, geliştirildiğine, eğitildiğine, ayarlandığına ve kullanıldığına göre performans gösteriyor. Yapay zekâyla temas eden herkesin, bu teknolojinin etik olmayan risklerini ve potansiyel olumsuz etkilerini anlaması bu nedenle oldukça önem taşıyor.

 

Düzenleyici çerçeveler, teknolojilerin topluma zarar vermek yerine fayda sağlamasına odaklanabilir. Daha etik yapay zekâ politikası için eğitim ve teknolojinin etik sonuçlarına yakından bakmaya ihtiyaç var. AI etiği, bir sistemin yaşam döngüsünün tüm aşamaları boyunca etik standartlardan ve korkuluklardan oluşan bir ekosistem oluşturmayı gerektiriyor.

 

Kaynaklar:

https://medium.com/@walidwalidhlali222/the-ethics-of-artificial-intelligence-by-mit-technology-review-9a90f96bf754  

https://www.ibm.com/topics/ai-ethics

https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

https://www.coursera.org/articles/ai-ethics

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G/

Vodafone Business ile işletmeniz geleceğin dünyasına hazırlansın!