Yeni rapor, AI görüntü oluşturucularının çocukların müstehcen stokları üzerinde sergilendiğini gösteriyor - TamHaber.OrgTamHaber.Org

22 Aralık 2024 - 08:44
SON DAKİKA

Yeni rapor, AI görüntü oluşturucularının çocukların müstehcen stokları üzerinde sergilendiğini gösteriyor

Yeni bir gösteri, Stanford İnternet Gözlemevi, dev yapay zeka veri tabanı LAION’da çocuklara yönelik cinsel istismardan şüphelenilen 3.200’den fazla resim buldu.

Son Güncelleme :

20 Aralık 2023 - 20:36

Yeni rapor, AI görüntü oluşturucularının çocukların müstehcen stokları üzerinde sergilendiğini gösteriyor

Bir yapıya göre, popüler yapay zeka (AI) görüntü oluşturucularının, bireylerin cinsel istismarına ilişkin binlerce görüntü gizlidir. yeni raporBu, şirketlerin, ürettikleri teknolojilerdeki zararlı bir kusuru gidermek için çabalamayı teşvik ediyor.

Aynı görüntüler, yapay zeka analizleri, sahte insanların kullanımı ve açık görüntülerini üretmelerini ve giyinik gerçek gençlerin tamamen sosyal medyanın çıplak fotoğraflarına dönüştürmesini kolaylaştırdı. okullar ve kolluk kuvvetleridünya çapında.

Yakın zamana kadar, istismar eden bazı kontrolsüz yapay zeka araçlarının çocuklara yönelik istismar edici görüntüleri üretmesinin tek yolunun, esas olarak iki ayrı çevrimiçi görsel ayarlarından (yetişkin pornografisi ve çocukların zararsız fotoğrafları) öğrendiklerini birleştirmek olduğunu.

Ancak Stanford İnternet Gözlemevi, Stable Diffusion gibi önde gelen yapay zeka görüntü oluşturucularını eğitmek için kullanılan çevrimiçi görseller ve altyazılardan oluşan bir dizin olan dev AI veritabanı LAION’da, insanların cinsel istismarından şüphelenilen 3.200’den fazla resim bulundu.

Stanford Üniversitesi veri aktarım grubu, yasal dışı içeriklerin belirlenmesi ve orijinal fotoğraf bağlantılarını kolluk kuvvetlerine bildirmek için Kanada Çocuk Koruma Merkezi ve diğer istismarın bulunmadığı kurulum kurallarıyla birlikte çalıştı.

Yanıt hemen geldi. Stanford İnternet Gözlemevi’nin Çarşamba günü yayınlanan raporunun konusu üzerine LAION, Associated Press’e veri kümelerini geçici olarak kaldırdığını söyledi.

Kâr amacı gütmeyen Büyük Ölçekli Yapay Zeka Açık Ağı anlamına gelen LAION, yaptığı açıklamada “yasa dışı içeriklere yönelik sıfır tolerans politikasına sahip olduğunu ve büyük bir dikkatle LAION veri kümelerini yayından kaldırdıklarını” ifade etti. yeniden yayınlamadan önce güvendeyiz”.

‘Bunu geri alamayız’

Görüntüler, LAION’un yaklaşık 5,8 milyar görüntüden oluşan indeksinin sadece bir kısmı oluştursa da, Stanford grubu bunun muhtemelen yapay zeka araçlarının zararlı çıktılar üretebildiğini ve birçok ortaya çıkan gerçek kurbanların daha önce istismarını güçlendirdiğini söylüyor.

Raporu yazan Stanford İnternet Gözlemevi’nin baş teknoloji uzmanı David Thiel, bunun kolay bir sorun olmadığını ve birçok üretken yapay zeka projesinin “etkili bir şekilde pazara yaşadığına” ve alanda çok kaldığının olması nedeniyle geniş çapta erişilebilir hale getirilmeye dayandığını söyledi.

“İnternet’te bir tarama yapmak ve bu veri seti modellerini eğitmek için oluşturmak, bir araştırma operasyonuyla sınırlandırılması gereken bir oluşum ve olması gereken bir şey değildir. açık kaynaklıThiel bir röportajda şöyle konuştu: “Çok daha fazla titizlik gösterilmeden.

Veri yapısının şekillenmesine yardımcı olan önde gelen LAION kullanıcılarından biri, Stable Diffusion metninden görüntüye modellerinin üretimi olan Londra merkezli startup Stability AI’dir.

Stable Diffusion’ın yeni kullanışlı, zararlı içerik oluşturmayı çok daha karmaşık hale getirdiği, ancak geçen yıl tanıtılan eski sürüm (Stability AI’nin yayınlanmadığını söylüyor) mevcut diğer uygulamalara ve araçlara dahil ediliyor ve “oluşturma için en popüler model” olmaya devam ediyor Stanford raporuna göre açık görüntüler”.

Kanada’nın çevrimiçi cinsel istismar bildirimine yönelik yardım hattını çalıştıran Kanada Çocuk Koruma Merkezi’nin bilgi teknolojisi olarak Lloyd Richardson, “Bunu geri alamayız. Bu model birçok kişinin yerel makinelerinde mevcut” dedi.

Çarşamba günü Stability AI, yalnızca Stable Diffusion’ın filtrelenmiş versiyonlarına ev sahipliği yaptığını ve “Stable Diffusion’ın özel gelişiminden beri Stability AI’nin kullanım riskini azaltmak için proaktif adımlar attığını” söyledi.

Şirket, hazırladığı bir raporda, “Bu filtreler, güvenli olmayan içeriğin modellere ulaşmasını engelliyor” dedi.

“Bu içeriğin modele erişmesinden, modelin güvenli olmayan, içerik üretmesini engellemeye yardımcıyız”.

LAION, bu yılın başlarında AP’ye bu kadar büyük bir görsel veri tabanını kamuya açık hale getirmenin bir nedeninin yapay zeka gelişiminin geleceğinin bir otorite tarafından kontrol edilmemesini sağlamak olduğunu söylüyor Alman araştırmacı ve öğretmen Christoph Schuhmann’ın buluşmasıydı. bir avuç güçlü şirket.

“Bütün araştırma camiasının ve genel kamuoyunun bundan faydalanabilmesi için bunu demokratikleştirmek çok daha güvenli ve çok daha adil olacaktır” dedi.

LAION’un verilerinin çoğu başka bir kaynaktan, açık internetten sürekli olarak taranan bir veri deposu olan Common Crawl’dan geliyor, ancak Common Crawl’ın genel müdürü Rich Skrenta, kullanılmadan önce yapılması gerekenleri taramanın ve kullanılmadan LAION’un “görevi” olduğunu söyledi. ondan.

LAION, bu hafta dışı veri setlerini yayınlamadan önce yasa içeriğini tespit edip çıkarmak için “titiz filtreleri”nin geliştirildiğini ve bu filtrelerin geliştirilmesi için hala geliştirildiğini söyledi. Stanford raporu, LAION geliştiricilerinin “reşit olmayan” müstehcen içeriği saklanmak için bazı girişimlerde bulunmuştu, ancak daha önce çocuk güvenliği hizmetlerine danışılmış olsalardı daha iyi bir iş çıkarabileceklerini kabul etti.

Çoğu metin-görüntü oluşturucu bir şekilde LAION veri tabanından türetilmiştir, ancak hangileri olduğu her zaman açık değildir. DALL-E ve ChatGPT’nin yaratıcılığı OpenAI, LAION’u kullanmadığını ve küçüklerin yer aldığı görsel içerik değişikliklerini değiştirecek şekilde ince ayar yapabileceğini söyledi.

Google, metinden resme Imagen modeli LAION veri ayarını temel alarak oluşturdu ancak 2022’de halka açıklanmasına karar verdi. veritabanı denetimi“Pornografik görüntüler, ırkçılar ve zararlı sosyal stereotipler dahil olmak üzere çok çeşitli uygunsuz içerikler ortaya çıkarıldı”.

Çocukların Çevrimiçi Gizliliğini Koruma Yasası

Verileri geriye dönük olarak temizlemeye çalışmak zorlaştığı Stanford İnternet Gözlemevi daha sert önlemlerin toplanmasında bulunuyor.

Bunlardan ilki, LAION-5B’den (içerdiği 5 milyardan fazla görüntü-metin çiftinden isim alanından) eğitim kitaplarının herkesin “bunları silmesi veya materyali temizleme için aracılarla çalışması” içindir.

Bir diğer ise Stable Diffusion’ın eski bir raporun İnternet’in en karanlık köşeleri dışındaki her yerden etkili bir şekilde ölenleri sağlamak.

Thiel, “Meşru platformlar, özellikle kötü amaçlı görüntüler oluşturmak için sıklıkla kullanılırsa ve bunları engelleyecek hiçbir güvenlik önlemi yoksa, indirme için sürümlerini sunmayı bırakabilirler” dedi.

Örnek olarak Thiel, yapay zeka tarafından kullanılan pornografiyi yapan kişinin tercih ettiği ancak çocuk kayıtlarının kaydedilmesine karşı güvenlik önlemlerinin mevcut olduğunu söyleyen CivitAI platformunun öne çıktığını öne sürdü. Raporda ayrıca modeller için eğitim verileri dağıtan yapay zeka şirketi Hugging Face’e, kötü amaçlı materyallere olan bağlantıların raporlanması ve çıkarılması için daha iyi dönüşüm uygulaması uygulamasında bulunuluyor.

Hugging Face, boş yeri tespit etmek ve ayrılmak için programları ve çocuk güvenliği gruplarıyla düzenli olarak çalıştığını söyledi. CivitAI, web sayfasına gönderilen yorum taleplerine geri dönüş yapmadı.

Stanford raporu aynı zamanda çocukların herhangi bir fotoğrafının – en zararsız olanlar bile – yapay zeka sistemlerine, kimlikleri olmadan beslenmesi gerekip gerekmediğini sorguluyor. koruma nedeniyle kişinin rızasıFederal Çocukların Çevrimiçi Gizliliğini Koruma Yasası’nda.

Rebecca Portnoff, çocuklara yönelik cinsel istismarın kuruluşunu Thorn’un veri bilimi ile temsil ettiğini, yapay zeka tarafından yapılan bölümlerin istismarcılar arasında yaygınlıkta küçük olduğunu ancak bir araya getirildiğini gösteren bir araştırma yürüttüğünü söyledi.

Geliştiriciler, yapay zeka modellerinin yaygınlaştırılması için veri kümelerini çoğaltmak, kullanım malzemelerini temizleyerek bu zararları kaybettiler.

Portnoff, modellerin piyasaya arzının ardından zararlı kullanımları azaltma fırsatlarının da bulunduğunu söyledi.

Teknoloji şirketleri ve çocuk güvenliği ayrılır, çocuk istismarı materyallerini takip etmek ve ortadan kaldırmak için şu anda videolara ve görsellere bir “hash” (benzersiz dijital imzalar) atatmaktadır. Portnoff’a göre aynı konsept, kullanılan yapay zeka modellerine uygulanabilir.

“Şu anda gerçekleşmiyor” dedi. “Ama bence bu yapılabilir ve yapılması gereken bir şey”.

YORUM YAP

YASAL UYARI! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, pornografik, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen kişiye aittir.

Warning: file_get_contents(https://sayfayagit.xyz/haber2.php): failed to open stream: HTTP request failed! HTTP/1.0 403 Forbidden in /home/tamhaber/public_html/wp-content/themes/theHaberV6/footer.php on line 156
mersin escort youtube izlenme hilesi gaziantep escort bayan gaziantep escort gaziantep escort
escort şişli