随着移动互联网的发展,网络社交产品已成青少年社交生活的重要一环,面对虚假信息、网络暴力以及低俗恶俗信息的涌现,特别是保护青少年成长的问题,已成网络运营企业、家长、媒体共同关注的话题。
未成年人利用手机接触网络的时间和频率都在增加,而移动社交平台的“不设防”也让孩子们接触有害信息的几率大大增加。调查发现,一些移动社交平台搭建的内容系统中充斥着大量传播低俗、色情、猎奇信息的自媒体内容。目前,我国在网络游戏、网络视频领域均施行了防沉迷举措,但针对网络社交、网络文学等方面的防沉迷手段较少,相关领域也成了监管的真空地带。
对于网络服务提供者来说,应该如何具体落实对未成年人的保护?对此,Soul App管理人员表示,“社交平台是一个记录生活和情绪,表达自我的平台。它鼓励真实表达,促成人与人之间的深度交流,以让用户降低孤独感,获得幸福感。”据介绍,在制度上,Soul App专设青少年安全与体验问题的产品经理,实时监控社交平台系统中未成年人保护机制运行及未成年用户内容过滤流程的运转情况。
在准入机制方面,年龄为18岁以下的存量用户自动进入“青少年模式”,不可自行设置退出。若需退出该模式,用户需上传本人手持身份证照片,再由平台人工审核查看年龄是否达到18岁。通过此举措,Soul App避免了未成年用户借用他人身份信息更改个人年龄的可能。
在用户分层管理上,Soul对未成年用户与成年用户进行严格分割,规避成年用户骚扰未成年的可能。包括不对未成年用户开放“恋爱铃”、“脸基尼匹配”等的入口,仅保留“灵魂匹配”及“语音匹配”功能,且在具体功能中设定未成年仅能匹配到未成年用户。
在用户内容发布层面,未成年发布的内容除需经过系统过滤,还要由经过“未成年人保护”相关内容培训的审核人员进行单独审核。(牛广文)