Seçimlerde AI ile bir yol ayrımında duruyoruz

Eda

New member
YENİArtık Haberler yazılarını dinleyebilirsiniz!


Federal Seçim Komisyonu’nun (FEC) 2024 seçim döngüsü için yaptığı seçimlerde yapay zeka veya yapay zeka kullanımına ilişkin herhangi bir yeni düzenleme olmayacak gibi görünüyor. siyasi reklamlar

Bazıları, seçimin bir “AI silahlanma yarışına” dönüşebileceğinden endişe ediyor. Bunun arkasındaki mantık, her bir tarafın diğerinin daha fazla silaha sahip olduğundan korktuğu ve dolayısıyla kendisinin daha fazla silaha sahip olduğu yaygın bir nükleer silahların yayılması senaryosudur.

Çizginin nereye çekileceği önemli bir sorudur. İfade özgürlüğünü koruduğumuz için – özellikle çevredeki siyasi kampanyalar – bu, her kampanyanın kendi başına çözmesi gereken bir şeydir. Bu hiçbir kuralın olamayacağı anlamına gelmez. Bunun yerine, kampanyaların ortak etik standartlar geliştirmesi için bir fırsat sağlar.

GOP 2024 ADAYI YAPAY AYNI YÜZEYDEN YAPILIYOR: PAC, FRANCIS SUAREZ’E BENZENEN “VEYEKTİR” OLABİLİR VE RÖPORTAJLAR YAPABİLİR

Bunun emsali yok değil: Bazı seçimler temiz kampanya taahhütleri içeriyor ve siyasi partiler, Başkanlık Tartışmaları Komisyonu aracılığıyla tartışma formatları ve kuralları üzerinde düzenli olarak anlaşıyorlar. Ancak, bu tartışmasız değildir.



Bu seçimde, siyasi kampanyalar yapay zekayı dağıtmak için hangi kuralları ve yönergeleri kullandıklarını çözmek zorunda kalacak. (Getty Images aracılığıyla JOSEP LAGO/AFP)


Kampanyaların üzerinde anlaşmaya vardığı kesin kurallar – örneğin, oluşturulan içeriği etiketlemek ve reklamların bireysel seçmenleri hedeflemesine izin vermek, ancak özelleştirmeye izin vermemek – müzakere edilmelidir. Bu kurallar, gelecekteki başkanlık kampanyaları ve her tür kampanya için emsal teşkil edebilir.

RNC’nin yakın zamanda bir kampanya reklamında yapay zekayı etik kullanımına ilişkin tanıtımında olduğu gibi, kampanyalar uygunluklarını öne çıkarabilir. Rakip kampanyalar ayrıca diğer kampanyaların kural ihlallerini bildirebilir ve bunu yaparak potansiyel olarak siyasi puanlar kazanabilir.

Elbette sorulması gereken soru, adayların, rakiplerinin kuralları ihlal ederek siyasi cephane kazanmasının, kazanabileceklerinden daha fazla veya daha az zarar verici olup olmadığı olacaktır.

Kazanılacak veriler veya oylar daha değerliyse, yapay zeka sınırlamalarının kabul edilmesi ve buna uyulması çok daha az şanstır. Tabii ki, AI sınırlamaları için çağrı yapmak bile potansiyel olarak tanıtım ve seçmen desteği kazanan kampanyalarla siyasi sermaye haline gelebilir.

Kampanyalar AI kullanım sınırlamaları üzerinde anlaşamaz veya bunlara uymazsa, kampanya pazarlamasını eleştirel bir şekilde değerlendirme sorumluluğu seçmenlere düşer. Medya kuruluşları veya diğerleri tarafından üçüncü taraf içerik etiketlemesi, okuyuculara bu konuda ileriye dönük olarak yardımcı olabilir; ancak yanlış bilgilere sınırlı düzeyde maruz kalmanın bile düzeltilmesi zor olabilir ve benzer yanlış bilgilere gelecekte daha fazla inanılmasına neden olur.

Ek olarak, etiketleme, yapay zeka tarafından oluşturulmuş olarak etiketlenmemiş içeriğe, öyle olsa bile, ek güvenilirlik sağlayabilir.

Bu sorunların AI içeriğine özgü olmadığına dikkat etmek önemlidir. AI, daha düşük maliyet ve daha hızlı değişim ve içeriğin hedeflenmesini kolaylaştırır. Önceki filmlerin içeriğini kullanarak dönemin valisi Arnold Schwarzenegger’i “Terminator Salvation” filmine uyarlamak bir Hollywood ekibini aldı.

Yapay zeka derin sahte teknolojisi, bir YouTube içerik oluşturucusunun daha karmaşık bir “Terminatör” ikamesi geliştirmesine olanak tanıyarak Sylvester Stallone’u muhtemelen çok daha az zaman ve maliyetle ikonik role yerleştirdi.

ChatGPT benzer şekilde yazma sürecini hızlandırabilir ve kullanıcıları için şimdiye kadarki en hızlı büyüyen uygulama olacak kadar değerli olmuştur; ancak, içerik doğruluğu sorunları olmadan değildir. Cambridge Analytica, kampanyaların hem seçmenleri hem de topluluk kampanyacılarını tanımasına olanak tanıyan bilgisayar analizinin gücünü gösterdi – hem de uzaktan, insan müdahalesi olmadan ve maliyetin çok altında.

GÖRÜŞ BÜLTENİNE ULAŞMAK İÇİN TIKLAYINIZ

İdeal olarak, kampanya davranışı için standartlar ortaya çıkacak ve kampanya edepli olarak izlenecektir. Tabii ki, her aday bir başkasının bu resmi olmayan ve uygulanamaz standartları kendi çıkarları doğrultusunda ihlal etme riskini taşır.

FEC, AI reklam düzenlemesini uygulamaya karar vermiş olsa bile, bunun başarılı olup olmayacağı net değil. FEC’in gücü, bu yönde mevzuat çıkarılmış olmasına rağmen, içerik düzenlemesini kapsamaz. Bununla birlikte, Yüksek Mahkeme’nin Citizens United kararı, yasaların “konuşmacının kimliğine dayalı siyasi konuşmayı” yasaklamasını yasakladığı için, kampanya konuşmasında AI kullanımını düzenlemek için bir anayasa değişikliğinin gerekli olabileceğini öne sürüyor.

Bu sorunların AI içeriğine özgü olmadığına dikkat etmek önemlidir. AI, daha düşük maliyet ve daha hızlı değişim ve içeriğin hedeflenmesini kolaylaştırır.
Nihayetinde en etkili caydırıcı kamuoyunun gücüdür. Geçmişteki benzer kampanya edep ihlallerine halkın tepkisine dayanan yoğun seçmen tepkisi korkusu, en umutsuz adaylar dışında herkesin muhtemelen kaçınacağı bir risktir.

HABERLER SUNULDU

Yapay zekanın siyasete girmesi konusunda bir yol ayrımındayız. Bugünkü seçimlerimiz, gelecek nesiller için siyasi söylemi şekillendirecek ve demokratik süreçlerimizin ve kurumlarımızın bütünlüğünü belirleyecektir.

Hiç kimsenin teknolojiyi kullanmayacağını varsayamayacağımız gibi, siyasi arenada AI’nın tüm kullanımlarını körü körüne kucaklayamayız. Bunun yerine, yapay zekanın seçmenlere meşru bilgiler ve aday mesajları iletmeye yardımcı olduğu, ancak onları şaşırtmak, baskı altına almak veya sindirmek için kullanılmadığı bir denge bulmalıyız.

JEREMY STRAUB’DAN DAHA FAZLA OKUMAK İÇİN BURAYA TIKLAYIN



Jeremy Straub, Kuzey Dakota Eyalet Üniversitesi Bilgisayar Bilimleri Bölümü’nde doçent, Challey Enstitüsü öğretim üyesi ve NDSU Siber Güvenlik Eğitimi ve Araştırma Enstitüsü’nün direktörüdür.