fbpx

NEWS: Apple เผยฟีเจอร์ปกป้องเด็กจากการถูกล่วงละเมิด ยืนยันว่าจะปล่อยออกมาพร้อมกับ iOS 15

: 6 สิงหาคม 2564

เมื่อเร็ว ๆ นี้ได้มีเรื่องการหลุดของฟีเจอร์สแกนภาพเปลือยกายของเด็กใน iPhone สร้างความเป็นกังวลให้กับผู้ใช้ โดยเฉพาะผู้ปกครองเป็นอย่างยิ่ง จนล่าสุดนั้นทางผู้พัฒนาของ Apple ได้ออกมาไขข้อสงสัยเกี่ยวกับฟีเจอร์ใหม่ที่จะถูกนำไปใส่ลงในอัปเดตใหม่ของ iCloud สำหรับ iOS 15 แล้ว

ซึ่งเป้าหมายของฟีเจอร์นี้คือการป้องการการแพร่กระจายของ Child Sexual Abuse Material (CSAM) หรือข้อมูลที่เกี่ยวกับการล่วงละเมิดทางเพศผู้เยาว์ โดยแอปพลิเคชัน Messages จะใช้ปัญญาประดิษฐ์ที่อยู่ในเครื่องเพื่อแจ้งเตือนถึงความสุ่มเสี่ยงของข้อมูลที่จะถูกส่งไปหรือได้รับ ระบบจะเซนเซอร์ภาพและแจ้งเตือนไปยังผู้ปกครองที่ผูกบัญชีครอบครัวทันที

รวมถึงระบบการสแกนหารูปโป๊เปลือยของเด็กของภาพที่ถูกอัปโหลดในระบบ iCloud เพื่อยับยั้งการกระจายต่อไปอีกด้วย โดยทาง Apple เน้นย้ำว่าทางบริษัทจะไม่สามารถเข้าถึงข้อมูลเหล่านี้ได้เป็นอันขาด

นอกจากนี้แล้วยังได้พัฒนา Siri และระบบการค้นหาเพื่อให้ข้อมูลเพิ่มเติมแก่เด็กและผู้ปกครองเมื่อเจอการล่วงละเมิด และป้องกันไม่ให้ค้นหาสื่อโป๊เปลือยของเด็กอีกด้วย โดยฟีเจอร์นี้จะถูกนำมาใช้ในอัปเดต iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey

คุณพ่อคุณแม่คิดเห็นอย่างไรกับฟีเจอร์นี้บ้างคะ มาร่วมแบ่งปันและแสดงความเห็นกันได้ค่ะ 

อ้างอิงจาก
https://www.apple.com/child-safety
https://www.facebook.com/GamingDoseTech/posts/967604923814807

Writer Profile : phanthirapuyou

  • Blog :
  • Social Media :

  • Official Sponsors :
  • Samitivej Hospital

Generic placeholder image

บทความที่เกี่ยวข้อง



Update
anal porno zdarma culi nudi al mare free sex videos antalya escort

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

Allow All
Manage Consent Preferences
  • Always Active

Save