กลายเป็นเรื่องเป็นราวขึ้นมาจนได้ สำหรับความฉลาดที่เกือบพาซวย เมื่อระบบ AI ของเฟซบุ๊กได้ทำการแนะนำคอนเทนต์ที่เกี่ยวข้องกับคอนเทนต์หลักซึ่งเป็นชายผิวดำแอฟริกันว่าเป็น “ไพรเมต”

ซึ่งหมายถึงสัตว์เลี้ยงลูกด้วยนมจำพวก “ลิง” และแน่นอนว่าหลังจากผู้ใช้งานพบข้อผิดพลาดก็ได้ทำการแจ้งเรื่องดังกล่าวให้ เฟซบุ๊กรับทราบทันที

โดยบีบีซีนิวส์ ได้รายงานว่าเหตุการณ์ดังกล่าวเกิดขึ้นเมื่อผู้ใช้งานของเฟซบุ๊กเปิดดูคลิปวิดีโอหนึ่งของสื่อเดลิเมล์และพบว่า AI ของเฟซบุ๊กเกิดความผิดพลาดในเคราะห์ข้อมูลของฟีเจอร์หัวข้อ (topic recommendation) เนื่องจากแนะนำผู้ใช้งานว่า “Keep seeing videos about Primates?” (ต้องการดูคลิปวิดีโอเกี่ยวกับไพรเมทอีกหรือไม่?)

ทั้งนี้คลิปดังกล่าวมีชื่อว่า “White Man calls cops on black men at marina.” เป็นคลิปของชายผิวดำแอฟริกัน และได้ถูกโพสต์ไว้ตั้งแต่มิถุนายนปี 2020

ล่าสุดโฆษกของ Facebook ได้ออกมาแถลงขอโทษอย่างเป็นทางการสำหรับกรณีที่เกิดขึ้นแล้ว ซึ่งทาง Facebook ได้กล่าวขอโทษและบอกว่ามันเป็น “ความผิดพลาดที่รับไม่ได้จริงๆ” และในตอนนี้ระบบซอฟต์แวร์ที่เกี่ยวข้องได้ถูกปิดการใช้งานแล้ว และทางเราจะตรวจสอบระบบเพื่อไม่ให้เกิดขึ้นอีกในอนาคต

นี่ไม่ใช่ครั้งแรกที่ AI เคราะห์ข้อมูลผิดพลาดแบบนี้ เพราะเมื่อปี 2015 ทางฝั่งของ Google Photos เจ้า AI ก็เคยวิเคราะห์พลาดให้คนผิวดำกลายเป็นกอริลล่ามาแล้วเหมือนกัน

ที่มา: www.sanook.com/hitech/1541281

SHARE
คนเล่าเรื่องไอที ที่เชื่อว่าการได้เดินทางและการพบปะพูดคุยกับผู้คนในสายงานต่าง ที่ไม่คุ้นเคยคือกำไรชีวิต...หลงไหลในการเดินทางเป็นชีวิตจิตใจ ตื่นเต้นทุกครั้งเมื่อได้เจอเจ้าหน้าที่ ตม.
RELATED POSTS
VAIO เปิดตัวแล็ปท็อปขนาดเล็กพร้อมพอร์ตครบ ไม่ต้องง้อ HUB เริ่มต้นประมาณ 34,000 บาท
โซนี่ไทยเปิดตัวหูฟังไร้สายใหม่ 2 รุ่น WF-C500 และ WH-XB910N ครบเครื่องเทคโนโลยีการฟังเพลง
เหตุผล 3 ข้อกับความพี๊คคคที่สุดของ Galaxy S23 series ที่ต้องลอง!

Leave Your Reply

*