Headlines

แนวทางป้องกันพื้นฐานรับมือความเสี่ยงและคุณค่าของ AI

โดย สเวตลานา ซิคูลาร์ รองประธานฝ่ายนักวิเคราะห์ การ์ทเนอร์


การนำ Generative AI มาใช้อย่างรวดเร็วก่อให้เกิดข้อถกเถียงอย่างมากถึงผลกระทบของ AI ที่มีต่อสังคม ซึ่งองค์กรจะต้องสร้างสมดุลระหว่างศักยภาพเทคโนโลยีที่มีความสำคัญนี้กับความเสี่ยงใหม่ ๆ ที่อาจเกิดขึ้น โดยเฉพาะการใช้ AI ไปในทางที่ผิด

องค์กรควรมีแนวทางป้องกันอย่างเหมาะสมเพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น ซึ่งสามารถทำได้โดยการวางกรอบการกำกับดูแลหรือ Governance Framework ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI พร้อมมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบแต่แท้จริง AI Governance คืออะไร และเหตุใดองค์กรควรให้ความสำคัญอย่างจริงจัง?

แม้เป็นคำที่ดูสวนทางกัน แต่การกำกับดูแลที่ดีนั้นทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกันที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์

การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้นทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว

นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนดเพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล

ตัวอย่างเช่น การกำกับดูแล AI จะต้องกำหนดแนวทางการลดอคติและมีข้อกำหนดเพื่อตรวจสอบ โดยคำนึงถึงความแตกต่างทางวัฒนธรรมและระเบียบข้อบังคับที่คุ้มครองสิทธิส่วนบุคคลและกลุ่มบุคคล อคติสามารถส่งผลลบต่อระดับการยอมรับ AI ในองค์กรและในสังคมภาพรวมได้ ซึ่งอคติถือเป็นปัญหาร้ายแรงขององค์กรข้ามชาติ เนื่องจากในแต่ละประเทศมีบรรทัดฐานทางวัฒนธรรมและระเบียบข้อบังคับที่เกี่ยวข้องแตกต่างกัน อาทิ กฎหมายคุ้มครองผู้บริโภค เป็นต้น

สิ่งสำคัญสำหรับองค์กรคือการชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่าง ๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจ โดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามี

สิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม ซึ่งควรมุ่งความสนใจไปที่ AI Content เป็นสิ่งสำคัญที่สุด โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้ ขณะที่พนักงานที่ใช้ AI ช่วยทำงานจะต้องตระหนักว่าพวกเขาต้องรับผิดชอบต่อผลลัพธ์ที่เกิดขึ้น

ขจัดความซับซ้อนของ AI ด้วยการกำกับดูแล

AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม

การกำกับดูแลควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก

การดึงประสิทธิภาพจากแนวทางการกำกับดูแลที่มีอยู่เดิมและการนำแนวทางที่เคยประสบความสำเร็จแล้วกลับมาใช้ซ้ำจะทำให้การจัดการผลกระทบของ AI เป็นเรื่องที่เข้าใจง่ายขึ้นและลดความท้าทายน้อยลง แม้จะมีแนวทางมากมายนำไปใช้กับ AI ได้ เช่น การจำแนกข้อมูล การกำหนดมาตรฐาน และการกำหนดแนวทางการสื่อสาร แต่ก็มีแนวทางที่เป็นลักษณะเฉพาะเช่นกัน ได้แก่ การสร้างความน่าเชื่อถือ ความโปร่งใส และความหลากหลาย รวมถึงวิธีการที่จะนำไปใช้ร่วมกับผู้คน ข้อมูล และเทคนิคต่าง ๆ ก็ถือเป็นสิ่งสำคัญ

การตัดสินใจสำคัญเกี่ยวกับ AI ในองค์กรหลายแห่ง กระทำผ่านคณะกรรมการด้าน AI หรือ AI Council โดยทั่วไปผู้ที่นั่งเป็นประธานจะเป็นผู้บริหาร CIO หรือ CDAO และมีกลุ่มคณะทำงานที่เป็นตัวแทนจากหน่วยธุรกิจอื่น ๆ ทั่วทั้งองค์กรมาร่วมด้วย โดยกลุ่มคณะกรรมการที่มีความหลากหลายนี้จำเป็นต้องทำงานสัมพันธ์โดยตรงร่วมกับกลุ่มผู้มีหน้าที่กำกับดูแลอื่น ๆ เพื่อเป็นแกนนำในความพยายามผลักดัน AI Governance

ภารกิจแรกของคณะกรรมการ คือ การรับรองการปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง แม้ว่าความเป็นส่วนตัวจะเป็นข้อกังวลสูงสุดและเห็นชัดเจนสุด แต่ก็ยังมีข้อกำหนดทางกฎหมายและข้อกำหนดเฉพาะของแต่ละอุตสาหกรรมทุกประเภทที่ต้องปฏิบัติตาม

การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่น ๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่น ๆ

สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร


เกี่ยวกับผู้เขียน

สเวตลานา ซิคูลาร์ เป็นรองประธานนักวิเคราะห์การ์ทเนอร์ ที่มีความเชี่ยวชาญด้าน Generative AI พร้อมเป็นผู้บุกเบิกการวิจัยตั้งแต่ยุคแรกเริ่ม อันนำไปสู่การใช้ AI อย่างมีความรับผิดชอบ ได้แก่ AI Governance, Augmented Intelligence และ Big Data

About Author