รู้ทัน AI Deepfake
เมื่อภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป!
ในวันที่อัลกอริทึม Generative AI ถูกพัฒนาสู่การเป็น AI Deepfake ที่ฉลาดล้ำและถูกนำมาสร้างเนื้อหา “ภาพ+เสียง” ที่เสมือนเรื่องจริงจนแยกไม่ออก ว่านี่คือชุดข้อมูล ที่ “มนุษย์ หรือ เทคโนโลยี AI” เป็นผู้คนสร้างสรรค์ขึ้นนั้น ได้กลายเป็นประเด็นร้อนที่เราต่างเป็นห่วงและให้ความสำคัญ เพราะเราแทบไม่สามารถล่วงรู้ได้เลยว่า ภาพ VDO หรือแม้แต่เสียง ที่เราแชร์ ส่งต่อกันบนโลกออนไลน์ ภายในเสี้ยววินาทีนี้ คือ ความจริง หรือ ภาพลวง แล้วคนธรรมดาอย่างเราๆ จะรับมือและรู้ทัน AI Deepfake ได้อย่างไร?
ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Clinic หรือ AIGC) นำโดย ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโส ETDA ก็ไม่พลาดที่จะชวนผู้เชี่ยวชาญด้าน AI ไม่ว่าจะเป็น พลอากาศตรี อมร ชมเชย เลขาธิการสำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ และ ศาสตราจารย์ ดร.วุฒิพงศ์ อารีกุล คณะวิศวกรรมศาสตร์ มหาวิทยาลัยเกษตรศาสตร์ เปิดเวทีแลกเปลี่ยนมุมมอง พาคนไทยไปทำความรู้จักกับ AI Deepfake พร้อมวิธีการรับมือเบื้องต้นเพื่อให้เรารู้ทันเทคโนโลยี AI ที่วันนี้สามารถสร้างชุดข้อมูล ภาพ เสียง ได้ราวกับมนุษย์แล้ว ใน AI Governance Webinar 2023 Season 2 EP.2 : The Challenge of AI Deepfake Technology ที่เผยแพร่ผ่าน ETDA LIVE เมื่อเร็วๆ นี้
ทำความรู้จักกับ AI Deepfake
AI Deepfake คือ Generative AI รูปแบบหนึ่ง ที่สามารถสร้างสื่อสังเคราะห์ ทั้งภาพนิ่ง เสียง ภาพเคลื่อนไหวพร้อมเสียง ที่เหมือนเป็นคนมาพูดหรือคุยจริงๆ จนแทบแยกไม่ออก ด้วยระบบการเรียนรู้หรือ Deep Learning จากลักษณะภายนอกของบุคคล เช่น สีผิว ตา ปาก จมูก รูปลักษณ์ต่างๆ ด้วยความฉลาดล้ำจากการเรียนรู้ข้อมูลมหาศาลของ Generative AI จึงทำให้การสร้างภาพและเสียง มีความเหมือนราวกับว่า คนๆ นั้นเป็นคนพูดจริงๆ ที่สำคัญ วัตถุประสงค์ของการสร้าง AI Deepfake นั้น จะขึ้นอยู่กับผู้สร้างว่า ต้องการนำไปใช้ในแง่ไหน ซึ่งแน่นอน เราคงปฏิเสธไม่ได้ว่า อาจจะมีทั้งในมุมที่ดีและมุมที่ไม่ดีกับสังคมก็ได้ ในวงเสวนาต่างสะท้อนว่า วันนี้ AI Deepfake ไม่ใช่เรื่องใหม่ และไม่จำกัดแค่คนสาย Tech เท่านั้น แต่ประชาชน คนธรรมดาอย่างเราๆ ก็สามารถเจอสื่อที่ถูกสร้างและผลิตจาก AI Deepfake ได้ทั่วๆ ไปเลย อย่างกรณีที่เกิดขึ้นในช่วงที่ผ่านมาจนเป็นข่าวโด่งดัง ที่พระอาจารย์เกจิชื่อดังถูกนำภาพเคลื่อนไหว ไปสร้างคลิปที่มีเนื้อหาสื่อความหมายใหม่ โดย AI Deepfake ที่สร้างจนสร้างความเข้าใจผิดและหลายคนต่างหลงเชื่อมาแล้ว เป็นต้น
AI Deepfake ปลอมภาพและเสียงอย่างไร
ผู้เชี่ยวชาญ เปิดเผยว่า การสร้างคลิปภาพและเสียงจาก AI Deepfake หลักๆ จะมี 2 แบบ คือ การปลอมแค่บางส่วน หรือ Face Wrap เช่น เอาหน้าที่อยากปลอม ไปแปะใส่หน้าคนจริงที่ถ่าย แล้วพยายามเลียนแบบเสียง และพฤติกรรมให้เหมือนคนนั้นๆ อีกวิธีการสร้างคือ การปลอมทั้งหมด หรือ Face Reenactment โดยใช้ AI ที่เกิดจากการเรียนรู้จากข้อมูลต่างๆ ทั้งการให้แสงเงา การกระพริบตา การยิ้ม เลียนแบบทุกอย่าง ก่อนสร้างภาพเสียงสังเคราะห์เป็นคนนั้นออกมา ซึ่งต้องยอมรับว่าหากฟังแบบเผินๆ แล้ว ก็เหมือนจนยากจะแยกออกเลย อย่างช่วงที่ผ่านมาที่เราคงเคยได้ยินกระแสข่าวของรายการ America’s Got Talent รายการโชว์ความสามารถชื่อดังจากประเทศสหรัฐอเมริกา ที่ได้ใช้เทคโนโลยี AI Deepfake มาสร้างภาพและเสียงเลียนแบบ นักร้องชื่อดังในตำนาน อย่าง Elvis Presley เพื่อทำให้การแสดงกลับมามีชีวิตอีกครั้ง สร้างความประทับใจให้กรรมการและผู้ชมได้อย่างน่าจดจำ จนทำให้หลายๆ ต่างตกใจและแทบจะเชื่อว่า คลิป Elvis Presley ที่เห็นนั้นเป็นเรื่องที่เกิดขึ้นจริง
AI Deepfake ปลอมภาพ เสียงได้ แต่ปลอมอัตลักษณ์ไม่ได้
แม้ว่า AI จะสามารถสร้างภาพเคลื่อนไหว เสียง ปลอมเป็นเราได้เหมือนมาก จนตาเปล่ามองแทบแยกไม่ออก ว่าคลิปที่เราได้เห็น ได้ยิน ถูกสร้างโดยเทคโนโลยี หรือ มนุษย์ กันแน่ จนอาจทำให้เราเริ่มกังวลว่า ในวันที่เทคโนโลยีสามารถทำอะไรได้เหมือนเรามากๆ นี้ จะทำให้การทำธุรกรรมทางออนไลน์ที่มีความสำคัญมาก โดยเฉพาะการทำธุรกรรมทางการเงิน มีความเสี่ยงต่อการถูกปลอมแปลงหรือไม่ ซึ่งในประเด็นนี้ ผู้เชี่ยวชาญต่างมองตรงกันว่า แม้เทคโนโลยี AI Deepfake จะมีความฉลาดล้ำ แต่ผู้เชี่ยวชาญ ยืนยันว่า มันไม่สามารถเลียนแบบอัตลักษณ์ หรือ Identity ที่สะท้อนความเป็นเราจริงๆ ได้ ไม่ว่าจะเป็น ม่านตา เลือด DNA ฟัน หรือแม้แต่ลายนิ้วมือ ซึ่งอัตลักษณ์เหล่านี้ หน่วยงานภาครัฐ เอกชน ต่างก็นำมาใช้ในกระบวนการพิสูจน์และยืนยันตัวตนทางดิจิทัล หรือที่เรามักได้ยินบ่อยๆ คือบริการ Digital ID เพื่อยืนยันว่าเป็นเราจริงๆ ที่มาทำธุรกรรมนั้นๆ ไม่ใช่ใครที่มาแอบอ้างเป็นเรา ซึ่งการยืนยันตัวตนด้วยวิธีนี้ค่อนข้างมีความปลอดภัย น่าเชื่อถือ ทำให้การทำธุรกรรมออนไลน์ โดยเฉพาะที่เกี่ยวข้องกับการเงิน มีความปลอดภัยมากยิ่งขึ้น
รู้ได้อย่างไร? นี่คือคลิป AI Deepfake
ในวันที่คลิปภาพและเสียง ถูกสร้างและเผยแพร่อย่างรวดเร็วบนโลกออนไลน์ ตลอดจนสื่อช่องทางต่างๆ เราจะรู้ได้อย่างไร ว่า คลิปที่เราเห็นถูกสร้างจาก AI Deepfake หรือไม่นั้น อาจเป็นเรื่องที่ตอบยาก เพราะวันนี้ แม้เรามีระบบในการตรวจสอบที่สามารถบอกได้ว่า คลิป ภาพ เสียง ถูกสร้างจากเทคโนโลยี AI หรือไม่นั้น แต่ก็ต้องใช้เวลาในการตรวจสอบ และค่อนข้างมีข้อจำกัดหลายประเด็นและไม่สามารถบอกได้แบบ Real Time ทันที ณ ปัจจุบัน ต้องใช้เวลาในการพิสูจน์…แล้วเราจะรู้ได้อย่างไร? ว่าคลิป ภาพ เสียงที่เห็นและได้ยินนั้น คือ ของจริง หรือ ถูกสร้างโดย AI นั้น ผู้เชี่ยวชาญแนะนำว่า สิ่งที่จะทำให้เรารู้ทัน AI Deepfake ได้ คือ “วิจารณญาณ” ของเราเอง ที่อย่าเชื่อแค่ภาพที่เราได้เห็น เสียงที่เราได้ยิน แล้วกดไลค์ กดแชร์ต่อ หรือแสดงความคิดเห็นเลย แต่ต้องมององค์ประกอบ หรือปัจจัยอื่นๆ ตลอดจนบริบทที่เกิดขึ้นว่ามีโอกาสที่คนคนนี้จะพูดแบบนี้ จริงหรือไม่ หรืออย่าเชื่อแค่สิ่งที่สื่อสำนักต่างๆ นำเสนอ เพราะเราต้องยอมรับว่า สิ่งที่สื่อนำเสนอบางทีอาจไม่ใช่เรื่องจริงทั้งหมดก็ได้
AI Deepfake ใช่จะมีแต่ข้อเสีย ประโยชน์ก็มี หากใช้ในทางที่ดี
เหรียญยังมีสองด้าน AI Deepfake ก็เช่นเดียวกัน ใช่ว่าจะมีแค่ด้านไม่ดี สร้างผลกระทบ และความเสี่ยงต่างๆ อย่างที่เกริ่นมาเท่านั้น แต่อีกมุม AI Deepfake ก็สามารถนำมาสร้างเนื้อหา ภาพ และเสียง ที่ก่อให้เกิดประโยชน์ต่างๆ ได้หลากหลายแง่มุมเลยทีเดียว เช่น ในอนาคตหากเราต้องสูญเสียคนที่รักไป เราอาจจะยังสามารถมีเขาอยู่ใกล้ๆ ได้พูดคุยได้ยินเสียงได้อยู่ ด้วยการนำ AI Deepfake มาสร้างคนที่เรารักให้คงอยู่ให้เราได้เห็น ด้วยการเรียนรู้ภาพ เสียงของคนนั้นๆ หรือ ในด้านการศึกษา อาจนำมาสร้างครูในโลก เสมือนจริง หรือ Virtual Teacher อย่างการจำลอง “อัลเบิร์ต ไอน์สไตน์” ขึ้นมาเพื่อให้รับบทเป็นครูสอนวิชาวิทยาศาสตร์ เป็นการเพิ่มอรรถรสในการเรียนได้เป็นอย่างดี เด็กนักเรียนอาจมีความรู้สึกสนุกสนานกับการเรียนมากยิ่งขึ้น ราวกับว่ากำลังได้เรียนกับ อัลเบิร์ต ไอน์สไตน์ ตัวเป็นๆ อีกทั้ง ยังเป็นการส่งเสริมด้านการศึกษาให้มีประสิทธิภาพมากยิ่งขึ้นได้อีกด้วย ซึ่งจะเห็นว่า เทคโนโลยี AI สามารถสร้างเรื่องราวดีๆ ให้เกิดขึ้นได้ ขึ้นอยู่กับวัตถุประสงค์ของการใช้งาน ดังนั้น ในมุมของผู้ใช้งาน AI วันนี้อาจต้องกลับมาถามตัวเองแล้วว่า เนื้อหา คลิปต่างๆ หรือบริการอะไรก็แล้วแต่ ที่เราผลิต สร้างสรรค์ขึ้นมานั้น จำเป็นมากน้อยแค่ไหน ที่ต้องทำให้เหมือนกับมนุษย์จริงๆ และจะทำอย่างไรให้ผู้ใช้บริการรู้ว่าสิ่งที่เขาเห็น หรือได้ยินนั้น คือ AI ไม่ใช่คนจริงๆ นี่ก็เป็นเรื่องที่ทุกภาคส่วนอาจต้องมองต่อหรือไม่ อีกหนึ่งประเด็นสำคัญที่ผู้เชี่ยวชาญร่วมกันถกคิด
ในวันที่ AI Deepfake มาพร้อมชีวิตดิจิทัล ที่เราทุกคนต่างมีโอกาสพบเจอได้ นอกจากการมีสติ มีวิจารณญานในการเปิดรับสื่อ ที่ไม่เชื่อแค่สิ่งที่ตาเห็น หูฟังแล้ว สิ่งสำคัญที่คนไทยทุกคนจะต้องมี คือ ต้องมีทักษะของการรู้เท่าทัน ที่ไม่ใช่แค่เรื่องของดิจิทัล หรือ Digital Literacy เท่านั้น แต่ต้องรู้เท่าทันเทคโนโลยี AI หรือ AI Literacy ด้วย ซึ่งที่ผ่านมา ETDA เราเร่งสร้างความตระหนักรู้ให้กับคนไทยผ่านกิจกรรมการถ่ายทอดความรู้ สื่อประชาสัมพันธ์ในรูปแบบต่างๆ มาอย่างต่อเนื่อง เพื่อให้คนไทยพร้อมรับมือและรู้เท่าทันภัยออนไลน์ ตลอดจนรู้เท่าทันเทคโนโลยีด้วย
ทั้งนี้ เพื่อให้การใช้งาน AI มีจริยธรรม เหมาะสม สอดคล้องตามหลักธรรมาภิบาลที่ควรจะเป็น เพื่อลดความเสี่ยงที่อาจจะเกิดขึ้น ศูนย์ AIGC by ETDA จึงร่วมกับพาร์ทเนอร์ ผู้เชี่ยวชาญด้าน AI ทั้งไทยและต่างประเทศที่มาร่วมเป็นคณะทำงานในรูปแบบ International Policy Advisory Panel และ Fellowship เดินหน้าสร้าง AI Governance Guideline ที่เหมาะสมกับประเทศ เพื่อเป็นกรอบในการดูแลการประยุกต์ใช้งาน AI ของประเทศไทยต่อไป…
Social Links