2020年10月17日,十三屆全國人大常委會第二十二次會議表決通過修訂后的《未成年人保護法》,并將于2021年6月1日正式施行。修訂后的《未成年人保護法》專門增設的“網絡保護”一章,成為此次法律修訂的最大亮點,專章從政府、學校、家庭、網絡產品和服務提供者不同主體出發(fā),對網絡素養(yǎng)教育、網絡信息內容管理、個人信息保護、網絡沉迷預防和網絡欺凌防治等內容作了規(guī)定。
隨著移動互聯(lián)網的發(fā)展,未成年人利用手機接觸網絡的時間和頻率都在增加,而移動社交平臺的“不設防”也讓孩子們接觸有害信息的幾率大大增加。目前,我國在網絡游戲、網絡視頻領域均施行了防沉迷舉措,但針對網絡社交、網絡文學等方面的防沉迷手段較少,相關領域也成了監(jiān)管的真空地帶。
在網絡社交產品已成青少年社交生活的重要一環(huán)的前提下,對于社交產品的網絡服務提供者來說,應該如何具體落實對未成年人的保護?SoulApp是近年來受到關注的Z世代社交產品之一,Soul公司內部對于青少年的安全保護措施也引起了人民網的關注,以下轉載自人民網對SoulApp的報道《持續(xù)治理網絡生態(tài) 未成年人網絡保護更應關注社交軟件安全》。
據SoulApp管理人員介紹,“Soul是一個記錄生活和情緒,表達自我的平臺。它鼓勵真實表達,促成人與人之間的深度交流,以讓用戶降低孤獨感,獲得幸福感。”在制度上,Soul App專設青少年安全與體驗問題的產品經理,實時監(jiān)控社交平臺系統(tǒng)中未成年人保護機制運行及未成年用戶內容過濾流程的運轉情況。
在準入機制方面,年齡為18歲以下的存量用戶自動進入“青少年模式”,不可自行設置退出。若需退出該模式,用戶需上傳本人手持身份證照片,再由平臺人工審核查看年齡是否達到18歲。通過此舉措,Soul App避免了未成年用戶借用他人身份信息更改個人年齡的可能。
在用戶分層管理上,Soul對未成年用戶與成年用戶進行嚴格分割,規(guī)避成年用戶騷擾未成年的可能。包括不對未成年用戶開放“戀愛鈴”、“臉基尼匹配”等的入口,僅保留“靈魂匹配”功能,且在具體功能中設定未成年僅能匹配到未成年用戶。
在用戶內容發(fā)布層面,未成年發(fā)布的內容除需經過系統(tǒng)過濾,還要由經過“未成年人保護”相關內容培訓的審核人員進行單獨審核。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!