2020年10月17日,十三屆全國人大常委會第二十二次會議表決通過修訂后的《未成年人保護法》,并將于2021年6月1日正式施行。修訂后的《未成年人保護法》專門增設的“網(wǎng)絡保護”一章,成為此次法律修訂的最大亮點,專章從政府、學校、家庭、網(wǎng)絡產(chǎn)品和服務提供者不同主體出發(fā),對網(wǎng)絡素養(yǎng)教育、網(wǎng)絡信息內(nèi)容管理、個人信息保護、網(wǎng)絡沉迷預防和網(wǎng)絡欺凌防治等內(nèi)容作了規(guī)定。
隨著移動互聯(lián)網(wǎng)的發(fā)展,未成年人利用手機接觸網(wǎng)絡的時間和頻率都在增加,而移動社交平臺的“不設防”也讓孩子們接觸有害信息的幾率大大增加。目前,我國在網(wǎng)絡游戲、網(wǎng)絡視頻領域均施行了防沉迷舉措,但針對網(wǎng)絡社交、網(wǎng)絡文學等方面的防沉迷手段較少,相關領域也成了監(jiān)管的真空地帶。
在網(wǎng)絡社交產(chǎn)品已成青少年社交生活的重要一環(huán)的前提下,對于社交產(chǎn)品的網(wǎng)絡服務提供者來說,應該如何具體落實對未成年人的保護?SoulApp是近年來受到關注的Z世代社交產(chǎn)品之一,Soul公司內(nèi)部對于青少年的安全保護措施也引起了人民網(wǎng)的關注,以下轉(zhuǎn)載自人民網(wǎng)對SoulApp的報道《持續(xù)治理網(wǎng)絡生態(tài) 未成年人網(wǎng)絡保護更應關注社交軟件安全》。
據(jù)SoulApp管理人員介紹,“Soul是一個記錄生活和情緒,表達自我的平臺。它鼓勵真實表達,促成人與人之間的深度交流,以讓用戶降低孤獨感,獲得幸福感。”在制度上,Soul App專設青少年安全與體驗問題的產(chǎn)品經(jīng)理,實時監(jiān)控社交平臺系統(tǒng)中未成年人保護機制運行及未成年用戶內(nèi)容過濾流程的運轉(zhuǎn)情況。
在準入機制方面,年齡為18歲以下的存量用戶自動進入“青少年模式”,不可自行設置退出。若需退出該模式,用戶需上傳本人手持身份證照片,再由平臺人工審核查看年齡是否達到18歲。通過此舉措,Soul App避免了未成年用戶借用他人身份信息更改個人年齡的可能。
在用戶分層管理上,Soul對未成年用戶與成年用戶進行嚴格分割,規(guī)避成年用戶騷擾未成年的可能。包括不對未成年用戶開放“戀愛鈴”、“臉基尼匹配”等的入口,僅保留“靈魂匹配”功能,且在具體功能中設定未成年僅能匹配到未成年用戶。
在用戶內(nèi)容發(fā)布層面,未成年發(fā)布的內(nèi)容除需經(jīng)過系統(tǒng)過濾,還要由經(jīng)過“未成年人保護”相關內(nèi)容培訓的審核人員進行單獨審核。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!