Black Box ปริศนา AI ที่อธิบายยาก!?! เนื้อหา ภาพ วิดีโอ  สร้างได้อย่างไร?  รถไร้คนขับมีอุบัติเหตุ ตัดสินใจยังไง? ทำไมปล่อยกู้ได้อย่างมีประสิทธิภาพ?

Black Box ปริศนา AI ที่อธิบายยาก!?! เนื้อหา ภาพ วิดีโอ  สร้างได้อย่างไร?  รถไร้คนขับมีอุบัติเหตุ ตัดสินใจยังไง? ทำไมปล่อยกู้ได้อย่างมีประสิทธิภาพ?

Black Box ปริศนา AI ที่อธิบายยาก!?!

เนื้อหา ภาพ วิดีโอ  สร้างได้อย่างไร?       

รถไร้คนขับมีอุบัติเหตุ ตัดสินใจยังไง?

ทำไมปล่อยกู้ได้อย่างมีประสิทธิภาพ?

สุทธิชัย ทักษนันต์

เวลาได้ยินคำว่า “Black Box” หรือ “กล่องดำ” คนทั่วไปมักจะคิดถึงเวลาเครื่องบินตกแล้วไปค้นหาสาเหตุของปัญหาจาก “กล่องดำ”

สำหรับ Black Box ในแวดวง AI จะหมายถึงระบบการทำงานของ AI ที่ได้ผลลัพธ์เป็นคำตอบที่แม้แต่ผู้สร้าง AI ก็ไม่เข้าใจอย่างถ่องแท้ว่า ทำไมถึงเป็นเช่นนั้น?!?

Black Box มักจะเกิดกับโมเดลแบบ Deep Learning เพราะมีขบวนการทำงานที่ซับซ้อน มีการกลั่นกรองข้อมูลหลายชั้น มีการเชื่อมต่อของข้อมูลมากมาย อาจมีพารามิเตอร์นับล้านตัว มีตัวแปรหลายอย่างที่เอามาพิจารณาร่วมกัน

เมื่อ AI ให้ผลลัพธ์มา มันยากต่อการทำความเข้าใจคำตอบ ไม่รู้เหตุผลเกี่ยวกับน้ำหนักและการเชื่อมต่อของแต่ละส่วนที่ส่งผลต่อผลลัพธ์สุดท้าย ไม่รู้ว่ามีที่มาอย่างไร มนุษย์ผู้สร้างไม่สามารถตีความได้ง่าย และปริศนาที่อธิบายได้ยากเหล่านี้ จะเรียกว่า “ปัญหากล่องดำ”

มีตัวอย่าง Black Box Problem ที่อธิบายได้ยากหรืออธิบายไม่ได้เลย เช่น

-AlphaGo’s Move 37: DeepMind บริษัทในเครือกูเกิล สร้าง AlphaGo ซึ่งเป็น AI ที่สามารถเล่นเกมโกะ หรือ หมากล้อม ในการแข่งขันกับ Lee Sedol แชมป์โลกเกมโกะ ในการเดินหมากตาที่ 37 เป็นการเดินที่แหวกแนว ผู้คนที่สังเกตการณ์และรวมถึงนักพัฒนาที่เป็นผู้สร้าง ต่างก็รู้สึกประหลาดใจกับการเดินหมากตานี้อย่างมาก แต่ในที่สุด AlphaGo ก็เป็นผู้ชนะ เหตุผลที่อยู่เบื้องหลังในการเดินครั้งที่ 37 นี้ ยังเป็นเรื่องยากสำหรับมนุษย์ที่จะเข้าใจ

-Generative AI: AI สร้างข้อความ, AI สร้างภาพ, AI สร้างวิดีโอ ใช้โมเดล Deep Learning ทั้งนั้น สิ่งที่ทำออกมาดูสมจริงมาก แต่ไม่สามารถอธิบายให้ชัดเจนว่าได้ผลลัพธ์ออกมาอย่างไร ส่งผลทำให้ควบคุมสิ่งที่ AI จะผลิตออกมาได้ยาก

-Autonomous Vehicles: รถไร้คนขับอาศัยอัลกอริธึม AI ที่ซับซ้อนในการตัดสินใจเกี่ยวกับ การนำทาง การตรวจจับสิ่งกีดขวง การจัดการกับการจราจร และในยามที่เกิดอุบัติเหตุซึ่งมีความเกี่ยวข้องกับรถไร้คนขับ ยังมีหลายประเด็นที่นักพัฒนาไม่เข้าใจว่า AI มีขบวนการตัดสินใจอย่างไร เลยกลายเป็นปัญหากล่องดำที่หาสาเหตุของอุบัติเหตุได้ยาก

-AI in Finance: มีการนำ AI มาช่วยทำงานทางด้านการเงินต่างๆ เช่น การตรวจจับการฉ้อโกง การตรวจจับการซื้อขายด้วยอัลกอริทึม และสิ่งที่เป็นเรื่องน่าทึ่งและน่าข้องใจกันมาก คือ การใช้ AI มาช่วยพิจารณาให้เครดิต มันทำให้หนี้เสียลดลงกว่าตอนที่ใช้ผู้เชี่ยวชาญที่เป็นคน ถ้าเป็นคนจะพิจารณาให้เครดิตโดยดูจากปัจจัยหลัก 5 เรื่อง คือ นิสัยส่วนตัว สภาพเศรษฐกิจ ความสามารถในการหาเงิน เงินทุน หลักทรัพย์ค้ำประกัน แต่เวลา AI พิจารณาให้เครดิต มันศึกษาจากปัจจัยต่างๆหลายร้อยรายการ บางปัจจัยก็อธิบายความเกี่ยวข้องกับการให้เครดิตได้ยาก เช่น ใช้แอปอะไรบ้าง เล่นเกมบ่อยแค่ไหน ใช้เวลากับอะไร แม้แต่ตอนที่มาขอเครดิตแบตเตอรี่มือถือเหลืออยู่แค่ไหนก็เอามาพิจารณาร่วมด้วย นักพัฒนาไม่รู้แน่ชัดว่า AI ให้น้ำหนักกับแต่ละปัจจัยอย่างไร และทำไมถึงเป็นเช่นนั้น?

You may also like

ศาลเยาวชนและครอบครัวกลาง จัดงานวันคล้ายวันสถาปนาครบรอบ 74 ปี

ศาลเยาวช