กลายเป็นเรื่องเป็นราวขึ้นมาจนได้ สำหรับความฉลาดที่เกือบพาซวย เมื่อระบบ AI ของเฟซบุ๊กได้ทำการแนะนำคอนเทนต์ที่เกี่ยวข้องกับคอนเทนต์หลักซึ่งเป็นชายผิวดำแอฟริกันว่าเป็น “ไพรเมต”

ซึ่งหมายถึงสัตว์เลี้ยงลูกด้วยนมจำพวก “ลิง” และแน่นอนว่าหลังจากผู้ใช้งานพบข้อผิดพลาดก็ได้ทำการแจ้งเรื่องดังกล่าวให้ เฟซบุ๊กรับทราบทันที

โดยบีบีซีนิวส์ ได้รายงานว่าเหตุการณ์ดังกล่าวเกิดขึ้นเมื่อผู้ใช้งานของเฟซบุ๊กเปิดดูคลิปวิดีโอหนึ่งของสื่อเดลิเมล์และพบว่า AI ของเฟซบุ๊กเกิดความผิดพลาดในเคราะห์ข้อมูลของฟีเจอร์หัวข้อ (topic recommendation) เนื่องจากแนะนำผู้ใช้งานว่า “Keep seeing videos about Primates?” (ต้องการดูคลิปวิดีโอเกี่ยวกับไพรเมทอีกหรือไม่?)

ทั้งนี้คลิปดังกล่าวมีชื่อว่า “White Man calls cops on black men at marina.” เป็นคลิปของชายผิวดำแอฟริกัน และได้ถูกโพสต์ไว้ตั้งแต่มิถุนายนปี 2020

ล่าสุดโฆษกของ Facebook ได้ออกมาแถลงขอโทษอย่างเป็นทางการสำหรับกรณีที่เกิดขึ้นแล้ว ซึ่งทาง Facebook ได้กล่าวขอโทษและบอกว่ามันเป็น “ความผิดพลาดที่รับไม่ได้จริงๆ” และในตอนนี้ระบบซอฟต์แวร์ที่เกี่ยวข้องได้ถูกปิดการใช้งานแล้ว และทางเราจะตรวจสอบระบบเพื่อไม่ให้เกิดขึ้นอีกในอนาคต

นี่ไม่ใช่ครั้งแรกที่ AI เคราะห์ข้อมูลผิดพลาดแบบนี้ เพราะเมื่อปี 2015 ทางฝั่งของ Google Photos เจ้า AI ก็เคยวิเคราะห์พลาดให้คนผิวดำกลายเป็นกอริลล่ามาแล้วเหมือนกัน

ที่มา: www.sanook.com/hitech/1541281

SHARE
คนเล่าเรื่องไอที ที่เชื่อว่าการได้เดินทางและการพบปะพูดคุยกับผู้คนในสายงานต่าง ที่ไม่คุ้นเคยคือกำไรชีวิต...หลงไหลในการเดินทางเป็นชีวิตจิตใจ ตื่นเต้นทุกครั้งเมื่อได้เจอเจ้าหน้าที่ ตม.
RELATED POSTS
อะโดบีเปิดตัว Adobe Sign รองรับดิจิทัลทรานฟอร์เมชั่นครั้งแรกสำหรับธุรกิจเอสเอ็มอี
เทรนด์ไมโครออกรายงานทำนายสถานการณ์ด้านความปลอดภัยประจำปี 2019
Messenger จาก Facebook เสริมกลยุทธ์ไฮบริดออนไลน์-ออฟไลน์ช่วยธุรกิจฟื้นฟูหลังโควิด-19

Leave Your Reply

*