Yapay zeka destekli algoritmaların kötüye kullanımına dikkat!
Yapay zeka destekli teknolojilerin, yüz yüze etkileşimleri azaltarak sosyal izolasyonu kolaylaştırma potansiyeline sahip olduğunu ifade eden uzmanlar, sosyal medya platformlarında kullanılan yapay zeka algoritmalarının, bireylerin yalnızca mevcut inançlarıyla uyumlu bilgi ve görüşlere maruz kaldığı yankı odalarının oluşumuna katkıda bulunabileceğini söylüyor.
Yapay zeka destekli algoritmaların kamuoyunu manipüle etmek, yanlış bilgi yaymak ve zararlı içeriği artırmak için kullanılabileceğini kaydeden Prof. Dr. Burhan Pektaş, “Bu durum bilgi kaynaklarına olan güveni zedeleyebilir ve toplumsal bölünmelere ve kafa karışıklığına yol açabilir.” dedi.
Üsküdar Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi (MDBF) Bilgisayar Mühendisliği (İng) Bölümü Başkanı Prof. Dr. Burhan Pektaş, yapay zekanın insanların hayatına müdahale edip edemeyeceği konusunu değerlendirdi.
“Yapay zeka destekli teknolojiler sosyal izolasyonu kolaylaştırıyor”
Prof. Dr. Burhan Pektaş, sanal asistanlar ve sosyal medya algoritmaları gibi yapay zeka destekli teknolojilerin, yüz yüze etkileşimleri azaltarak ve dijital iletişime bağımlılığı teşvik ederek sosyal izolasyonu kolaylaştırma potansiyeline sahip olduğunu ifade etti. Pektaş, “Sosyal medya platformlarında kullanılan yapay zeka algoritmaları, bireylerin yalnızca mevcut inançlarıyla uyumlu bilgi ve görüşlere maruz kaldığı yankı odalarının oluşumuna katkıda bulunabilir. Bu, sosyal kutuplaşmayı şiddetlendirebilir ve farklı gruplar arasındaki yapıcı diyaloğu engelleyebilir.” dedi.
“Toplumsal bölünmelere ve kafa karışıklığına yol açabilir”
Yapay zeka destekli algoritmaların kamuoyunu manipüle etmek, yanlış bilgi yaymak ve zararlı içeriği artırmak için kullanılabileceğini kaydeden Prof. Dr. Burhan Pektaş, “Bu durum bilgi kaynaklarına olan güveni zedeleyebilir ve toplumsal bölünmelere ve kafa karışıklığına yol açabilir. Bu tehlikeleri azaltmak için yapay zekanın sosyal bağlamlarda sorumlu tasarımı, dağıtımı ve kullanımına yönelik sağlam etik kurallar, düzenlemeler ve hesap verebilirlik mekanizmaları geliştirmek ve uygulamak önemlidir.” diye konuştu.
“Yapay zeka teknolojileriyle ilişkili potansiyel risklere ilişkin farkındalığı teşvik etmek önemli”
Dijital okuryazarlığı, eleştirel düşünme becerilerini ve yapay zeka teknolojileriyle ilişkili potansiyel risklere ilişkin farkındalığı teşvik etmenin giderek yapay zekanın yönlendirdiği bir dünyada bireyleri sosyal etkileşimlerde gezinme konusunda güçlendirebileceğini de anlatan Prof. Dr. Burhan Pektaş, şunları dile getirdi:
“Yapay Zeka (AI) ile insan hayatı arasında bir denge kurmak, AI teknolojilerinin fayda ve risklerinin dikkatli bir şekilde değerlendirilmesini ve ayrıca AI’nın insanlığın çıkarlarına en iyi şekilde hizmet etmesini sağlayacak stratejilerin uygulanmasını gerektirir. Buna göre yapay zeka sistemlerinin tasarımı, geliştirilmesi ve devreye alınmasında etik hususlara öncelik verilmesi gerekir. Bu, yapay zeka yaşam döngüsü boyunca şeffaflığın, adaletin, hesap verebilirliğin ve insan haklarına saygının sağlanmasını içerir.
“Yapay zeka teknolojilerinin tasarım sürecine kullanıcılar dahil edilmeli”
Diğer yandan yapay zeka teknolojilerinin sorumlu kullanımını yönetmek için düzenleyici çerçeveleri ve standartları uygulamalıyız. Bu çerçeveler veri gizliliği, algoritmik önyargı, otonom sistemler ve yapay zeka uygulamalarının etik sonuçları gibi konuları ele almalıdır. Yapay zeka sistemlerinin tasarımında insan ihtiyaçlarına, değerlerine ve tercihlerine öncelik verilmelidir. Yapay zeka teknolojilerinin sezgisel, kullanıcı dostu ve insani değerler ve hedeflerle uyumlu olmasını sağlamak için tüm kullanıcıları tasarım sürecine dahil edilmesi önem arz etmektedir.”
“Tasarımcılar, toplumsal etkileri dikkate almada ahlaki bir sorumluluğa sahip”
Yapay Zekanın (AI), etik sonuçları olan karar verme süreçlerinde giderek daha fazla rol oynadığına da vurgu yapan Prof. Dr. Burhan Pektaş, “Yapay zeka sistemlerini oluşturmaktan sorumlu tasarımcılar, geliştiriciler ve mühendisler, bu sistemlerin etik olarak ve potansiyel toplumsal etkiler dikkate alınarak tasarlanmasını sağlamak konusunda ahlaki bir sorumluluğa sahiptir.” dedi.
“Gizlilik ihlalleri ve istenmeyen sonuçlar gibi olası zararları azaltmak için adımlar atılmalı”
Bunun, tasarım sürecinde önyargı, adalet, şeffaflık ve hesap verebilirlik gibi konuların ele alınmasını da içerdiğini dile getiren Prof. Dr. Burhan Pektaş, “Ayrıca, yapay zeka teknolojilerini dağıtanlar ve kullananlar, eylemlerinin sonuçlarının ahlaki sorumluluğunu taşırlar. Bu, yapay zeka sistemlerinin sorumlu ve etik bir şekilde kullanılmasını sağlamayı ve ayrımcılık, gizlilik ihlalleri ve istenmeyen sonuçlar gibi olası zararları azaltmak için adımlar atmayı içerir.” şeklinde bilgi verdi.
“Bu sistemlerin eylemlerinin ahlaki sorumluluğunu kimin üstlenecek?”
Diğer yönden yapay zeka sistemleri daha özerk hale geldikçe ve insan müdahalesi olmadan karar verme kapasitesine sahip oldukça, bu sistemlerin eylemlerinin ahlaki sorumluluğunu kimin üstleneceğine dair soruların da ortaya çıktığını kaydeden Prof. Dr. Burhan Pektaş, sözlerini şöyle tamamladı:
“Açık hesap verebilirlik çizgileri oluşturmak ve sorumluluk ve yükümlülük konularını ele alacak uygun mekanizmaların mevcut olmasını sağlamak çok önemlidir. Yapay zeka sistemleri genellikle sağlık hizmetleri, ceza adaleti ve otonom araçlar gibi konularda etik sonuçları olan kararlar verir. Yapay zeka sistemlerinin geliştirilmesinde ve devreye alınmasında yer alan kişi ve kuruluşlar, bu sistemlerin etik ilke ve değerlerle tutarlı kararlar vermesini sağlamak konusunda ahlaki bir sorumluluğa sahiptir.
Genel olarak yapay zekanın insan yaşamına müdahalesi, ahlaki sorumlulukla ilgili karmaşık etik soruları gündeme getiriyor; yapay zeka teknolojilerinin etik ilkelerle uyumlu ve bireylerin refahını ve bir bütün olarak toplumu teşvik edecek şekilde geliştirilmesini ve kullanılmasını sağlamak için çeşitli paydaşlar arasında dikkatli bir değerlendirme ve işbirliği yapılmasını gerektiriyor.”
Kaynak: (BYZHA) Beyaz Haber Ajansı