Bilim insanları popüler sosyal medya platformu Instagram ile ilgili bir araştırmanın sonuçlarını kamuoyu ile paylaştı.

Danimarka'da yapılan bir araştırmada sosyal medya platformunun içerikleri kaldırma ve moderasyon konusunda yetersiz olduğu sonucu ortaya çıktı.

Araştırmada Meta'nın müstehcen görüntüleri kaldırmayarak ve bu tür içeriklerle ilgilenenleri birbirleriyle arkadaş olmaya teşvik ederek Instagram'da kendine zarar verme içeriğinin gelişmesine aktif olarak yardımcı olduğu kaydedildi.

Danimarkalı araştırmacılar, sosyal medya platformunda 13 yaşından küçük kişilerin sahte profillerini içeren özel bir kendine zarar verme ağı oluşturdular ve burada kan, jilet ve kendine zarar verme teşviki de dahil olmak üzere şiddeti giderek artan 85 adet kendine zarar verme ile ilgili içerik paylaştılar.

Çalışmanın amacı, Meta'nın artık yapay zeka (AI) kullandığını söylediği zararlı içeriği kaldırma süreçlerini önemli ölçüde geliştirdiği iddiasını test etmekti. Teknoloji şirketi, zararlı içeriklerin yaklaşık %99'unu rapor edilmeden önce kaldırdığını iddia ediyor.

Ancak sorumlu dijital gelişimi teşvik eden bir kuruluş olan Digitalt Ansvar (Dijital Sorumluluk), bir ay süren deneyde tek bir görüntünün bile kaldırılmadığını tespit etti.