Black Box ปริศนา AI ที่อธิบายยาก!?!
เนื้อหา ภาพ วิดีโอ สร้างได้อย่างไร?
รถไร้คนขับมีอุบัติเหตุ ตัดสินใจยังไง?
ทำไมปล่อยกู้ได้อย่างมีประสิทธิภาพ?
สุทธิชัย ทักษนันต์
เวลาได้ยินคำว่า “Black Box” หรือ “กล่องดำ” คนทั่วไปมักจะคิดถึงเวลาเครื่องบินตกแล้วไปค้นหาสาเหตุของปัญหาจาก “กล่องดำ”
สำหรับ Black Box ในแวดวง AI จะหมายถึงระบบการทำงานของ AI ที่ได้ผลลัพธ์เป็นคำตอบที่แม้แต่ผู้สร้าง AI ก็ไม่เข้าใจอย่างถ่องแท้ว่า ทำไมถึงเป็นเช่นนั้น?!?
Black Box มักจะเกิดกับโมเดลแบบ Deep Learning เพราะมีขบวนการทำงานที่ซับซ้อน มีการกลั่นกรองข้อมูลหลายชั้น มีการเชื่อมต่อของข้อมูลมากมาย อาจมีพารามิเตอร์นับล้านตัว มีตัวแปรหลายอย่างที่เอามาพิจารณาร่วมกัน
เมื่อ AI ให้ผลลัพธ์มา มันยากต่อการทำความเข้าใจคำตอบ ไม่รู้เหตุผลเกี่ยวกับน้ำหนักและการเชื่อมต่อของแต่ละส่วนที่ส่งผลต่อผลลัพธ์สุดท้าย ไม่รู้ว่ามีที่มาอย่างไร มนุษย์ผู้สร้างไม่สามารถตีความได้ง่าย และปริศนาที่อธิบายได้ยากเหล่านี้ จะเรียกว่า “ปัญหากล่องดำ”
มีตัวอย่าง Black Box Problem ที่อธิบายได้ยากหรืออธิบายไม่ได้เลย เช่น
-AlphaGo’s Move 37: DeepMind บริษัทในเครือกูเกิล สร้าง AlphaGo ซึ่งเป็น AI ที่สามารถเล่นเกมโกะ หรือ หมากล้อม ในการแข่งขันกับ Lee Sedol แชมป์โลกเกมโกะ ในการเดินหมากตาที่ 37 เป็นการเดินที่แหวกแนว ผู้คนที่สังเกตการณ์และรวมถึงนักพัฒนาที่เป็นผู้สร้าง ต่างก็รู้สึกประหลาดใจกับการเดินหมากตานี้อย่างมาก แต่ในที่สุด AlphaGo ก็เป็นผู้ชนะ เหตุผลที่อยู่เบื้องหลังในการเดินครั้งที่ 37 นี้ ยังเป็นเรื่องยากสำหรับมนุษย์ที่จะเข้าใจ
-Generative AI: AI สร้างข้อความ, AI สร้างภาพ, AI สร้างวิดีโอ ใช้โมเดล Deep Learning ทั้งนั้น สิ่งที่ทำออกมาดูสมจริงมาก แต่ไม่สามารถอธิบายให้ชัดเจนว่าได้ผลลัพธ์ออกมาอย่างไร ส่งผลทำให้ควบคุมสิ่งที่ AI จะผลิตออกมาได้ยาก
-Autonomous Vehicles: รถไร้คนขับอาศัยอัลกอริธึม AI ที่ซับซ้อนในการตัดสินใจเกี่ยวกับ การนำทาง การตรวจจับสิ่งกีดขวง การจัดการกับการจราจร และในยามที่เกิดอุบัติเหตุซึ่งมีความเกี่ยวข้องกับรถไร้คนขับ ยังมีหลายประเด็นที่นักพัฒนาไม่เข้าใจว่า AI มีขบวนการตัดสินใจอย่างไร เลยกลายเป็นปัญหากล่องดำที่หาสาเหตุของอุบัติเหตุได้ยาก
-AI in Finance: มีการนำ AI มาช่วยทำงานทางด้านการเงินต่างๆ เช่น การตรวจจับการฉ้อโกง การตรวจจับการซื้อขายด้วยอัลกอริทึม และสิ่งที่เป็นเรื่องน่าทึ่งและน่าข้องใจกันมาก คือ การใช้ AI มาช่วยพิจารณาให้เครดิต มันทำให้หนี้เสียลดลงกว่าตอนที่ใช้ผู้เชี่ยวชาญที่เป็นคน ถ้าเป็นคนจะพิจารณาให้เครดิตโดยดูจากปัจจัยหลัก 5 เรื่อง คือ นิสัยส่วนตัว สภาพเศรษฐกิจ ความสามารถในการหาเงิน เงินทุน หลักทรัพย์ค้ำประกัน แต่เวลา AI พิจารณาให้เครดิต มันศึกษาจากปัจจัยต่างๆหลายร้อยรายการ บางปัจจัยก็อธิบายความเกี่ยวข้องกับการให้เครดิตได้ยาก เช่น ใช้แอปอะไรบ้าง เล่นเกมบ่อยแค่ไหน ใช้เวลากับอะไร แม้แต่ตอนที่มาขอเครดิตแบตเตอรี่มือถือเหลืออยู่แค่ไหนก็เอามาพิจารณาร่วมด้วย นักพัฒนาไม่รู้แน่ชัดว่า AI ให้น้ำหนักกับแต่ละปัจจัยอย่างไร และทำไมถึงเป็นเช่นนั้น?
THAI
Social Links