

Aile ve Sosyal Hizmetler Bakanlığı'nın çocuklara yönelik sosyal medya düzenlemesi çalışmaları dahilinde hazırladığı raporda, yasa dışı, zararlı ya da ağır şiddet içeren içeriklerin ortaya çıkmasının ardından mahkeme kararı ya da idari kurum kararına gerek olmadan, platformun kendi öz denetimi sonrasında bu içeriklerin en hızlı şekilde kaldırılması talep edildi.
Bakanlık, Ulaştırma ve Altyapı Bakanlığı ve ilgili kurumlarla iş birliği yaparak, çocukları sosyal medyanın olumsuz etkilerinden korumak için yasaya dayalı düzenlemeler üzerinde çalışmalarını sürdürüyor.
Düzenlemeyle birlikte, zararlı içeriklere karşı daha etkin denetim mekanizmaları oluşturulması, çocukların kişisel verilerinin daha iyi korunması ve dijital platformların sorumluluğunun artırılması hedefleniyor.
DİĞER ÜLKELERDEKİ ÖRNEKLER
Dünyada pek çok ülke, çocukların dijital ortamdaki risklerden korunması amacıyla çeşitli önlemler alma çalışmalarında bulunuyor.
Bu çerçevede, Avustralya'da 16 yaşın altındaki çocukların sosyal medyaya erişimi yasaklandı. Benzer bir yasağın İngiltere'de de uygulanması tartışılıyor. Fransa'da 15, İtalya'da 14, Danimarka ve Belçika'da ise 13 yaşından küçük çocukların ebeveyn izni olmaksızın hesap açmaları mümkün olmuyor.
Türkiye de bu alanda kendine özgü bir model geliştirmek için çalışmalarını sürdürüyor.
Geçen yıl başlatılan altyapı çalışmalarıyla, İngiltere ve Avustralya'daki düzenlemeler de dahil olmak üzere küresel örnekler incelendi.
ÇOCUKLAR ADINA HESAP AÇILAMAYACAK
Bakanlığın hazırladığı raporda, dijital platformlara 15 yaşından küçük çocuklara kesinlikle hizmet sunmama ve hesap açmama yükümlülüğü getirilmesi önerisi yer alıyor.
Ayrıca platformların, yaş tahmini ve doğrulama sistemlerini etkin bir şekilde kullanma yükümlülüğü altında olması isteniyor.
Platformların yasa dışı, zararlı ya da şiddet içeren içerikleri barındırma kapasiteleri konusunda “risk analizi” gerçekleştirme yükümlülüğü bulunuyor. Bu rapor kapsamında, riskleri nasıl yönettiklerine dair bilgilerin belli aralıklarla kamuoyuyla paylaşılması bekleniyor.
Aynı kapsamda, zararlı içeriklerin ortaya çıkmasından sonra mahkeme kararı ya da idari kurum kararı gerekmeksizin platformun kendi öz denetimi sonrasında bu içerikleri en hızlı şekilde kaldırması bekleniyor.
Raporda, platformların sistemik gözetim modeli çerçevesinde ebeveyn denetim araçlarını çeşitli, ulaşılabilir ve anlaşılabilir biçimde sunmaları tavsiye ediliyor.
Çocukların kişisel verilerinin korunması konusunda yasal bir düzenleme yapılması gerektiği vurgulanan raporda, Türkiye'de oyun pazarının büyümesi ve oyun firmalarının önemli bir ilgi görmesi nedeniyle bu alanda da düzenleme yapılması öneriliyor.


