เมื่อเร็ว ๆ นี้ได้มีเรื่องการหลุดของฟีเจอร์สแกนภาพเปลือยกายของเด็กใน iPhone สร้างความเป็นกังวลให้กับผู้ใช้ โดยเฉพาะผู้ปกครองเป็นอย่างยิ่ง จนล่าสุดนั้นทางผู้พัฒนาของ Apple ได้ออกมาไขข้อสงสัยเกี่ยวกับฟีเจอร์ใหม่ที่จะถูกนำไปใส่ลงในอัปเดตใหม่ของ iCloud สำหรับ iOS 15 แล้ว
ซึ่งเป้าหมายของฟีเจอร์นี้คือการป้องการการแพร่กระจายของ Child Sexual Abuse Material (CSAM) หรือข้อมูลที่เกี่ยวกับการล่วงละเมิดทางเพศผู้เยาว์ โดยแอปพลิเคชัน Messages จะใช้ปัญญาประดิษฐ์ที่อยู่ในเครื่องเพื่อแจ้งเตือนถึงความสุ่มเสี่ยงของข้อมูลที่จะถูกส่งไปหรือได้รับ ระบบจะเซนเซอร์ภาพและแจ้งเตือนไปยังผู้ปกครองที่ผูกบัญชีครอบครัวทันที
รวมถึงระบบการสแกนหารูปโป๊เปลือยของเด็กของภาพที่ถูกอัปโหลดในระบบ iCloud เพื่อยับยั้งการกระจายต่อไปอีกด้วย โดยทาง Apple เน้นย้ำว่าทางบริษัทจะไม่สามารถเข้าถึงข้อมูลเหล่านี้ได้เป็นอันขาด
นอกจากนี้แล้วยังได้พัฒนา Siri และระบบการค้นหาเพื่อให้ข้อมูลเพิ่มเติมแก่เด็กและผู้ปกครองเมื่อเจอการล่วงละเมิด และป้องกันไม่ให้ค้นหาสื่อโป๊เปลือยของเด็กอีกด้วย โดยฟีเจอร์นี้จะถูกนำมาใช้ในอัปเดต iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey
คุณพ่อคุณแม่คิดเห็นอย่างไรกับฟีเจอร์นี้บ้างคะ มาร่วมแบ่งปันและแสดงความเห็นกันได้ค่ะ
อ้างอิงจาก
https://www.apple.com/child-safety
https://www.facebook.com/GamingDoseTech/posts/967604923814807