โดย เบิร์น เอลเลียต รองประธานฝ่ายวิจัย การ์ทเนอร์ อิงค์
ไม่นานมานี้ OpenAI บริษัทวิจัยและพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้เปิดตัว ChatGPT แพลตฟอร์มสนทนา AI รูปแบบใหม่อย่างเป็นทางการ จากข้อมูลของบริษัทฯ ระบุว่ารูปแบบการสนทนาที่จัดทำโดยแพลตฟอร์มนี้ทำให้ ChatGPT สามารถ “ตอบคำถามได้ครอบคลุม ยอมรับข้อผิดพลาด พร้อมนำเสนอข้อมูลใหม่ ๆ เพื่อปรับเปลี่ยนข้อมูลที่ไม่ถูกต้อง และปฏิเสธคำร้องขอที่ไม่สมเหตุสมผล”
นับตั้งแต่ ChatGPT เปิดให้บริการ บนโลกโซเชียลมีเดียก็มีการถกเถียงกันถึงความเป็นไปได้ในการนำนวัตกรรมนี้มาปรับใช้รวมถึงอันตรายที่อาจตามมา เนื่องจากความสามารถในการวิเคราะห์หาข้อผิดพลาดของโค้ด (Debug Code) ไปจนถึงศักยภาพในการเขียนเรียงความสำหรับนักศึกษา
เพราะอะไร ChatGPT ถึงได้รับความสนใจเป็นอย่างมาก?
ChatGPT เป็นปรากฎการณ์ Perfect Storm ที่เป็นการรวมกันของปัญญาประดิษฐ์ (AI) สองเรื่องใหญ่ ๆ ที่กำลังมาแรงในปัจจุบัน นั่นคือแชทบอท และ GPT3 ที่นำเสนอวิธีการสื่อสารโต้ตอบพร้อมสร้างเนื้อหาที่น่าสนใจ เสมือนการพูดคุยกับมนุษย์ได้อย่างน่าอัศจรรย์ ซึ่งเป็นผลมาจากการพัฒนาเทคโนโลยีที่เกี่ยวข้องสำคัญในช่วงห้าปีที่ผ่านมา
แชทบอทสร้างปฏิสัมพันธ์การสนทนาแบบ ‘ชาญฉลาด’ ขณะที่ GPT3 สร้างเอาต์พุทที่ดู ‘เข้าใจ’ คำถาม เนื้อหา และบริบทของการสนทนา ซึ่งเมื่อสองสิ่งนี้รวมกันได้สร้างผลกระทบใหญ่จนเกิดคำถามว่า ‘เรากำลังสนทนากับมนุษย์หรือคอมพิวเตอร์กันแน่หรือว่าเป็นคอมพิวเตอร์ที่เหมือนกับมนุษย์’ ซึ่งการโต้ตอบบางครั้งสร้างความขบขัน บ้างนำเสนอข้อมูลลึกซึ้งและบางทีก็เต็มไปด้วยสาระความรู้
แต่น่าเสียดายที่บางครั้ง ChatGPT ยังนำเสนอเนื้อหาได้ไม่ถูกต้องและไม่ได้อยู่บนพื้นฐานความเข้าใจหรือสติปัญญาของมนุษย์ ปัญหาอาจอยู่ที่คำว่า ‘เข้าใจ’ และ ‘ความฉลาด’ ซึ่งขึ้นอยู่กับการป้อนข้อมูลของมนุษย์ที่อาจมีความหมายคลุมเครือไม่ชัดเจน ดังนั้นเมื่อนำไปใช้กับอัลกอริธึม อาจส่งผลให้เกิดความเข้าใจผิดอย่างรุนแรง
ในมุมที่มีประโยชน์กว่าคือการได้เห็นว่าแชทบอทและโมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT ได้กลายเป็นเครื่องมือที่มีคุณค่าสำหรับการทำงานเฉพาะอย่างให้สำเร็จลุล่วงได้ ที่ไม่ใช่เพื่อความบันเทิง โดยความสำเร็จจะเกิดขึ้นหรือไม่นั้นขึ้นอยู่กับการนำเทคโนโลยีเหล่านี้ไปใช้ในแอปพลิเคชันที่เหมาะสมและมอบประโยชน์ต่อองค์กรอย่างแท้จริง
รูปแบบการใช้ ChatGPT ในองค์กร
สำหรับการใช้งานเทคโนโลยีแชทบอทหรือผู้ช่วยการสนทนาในเชิงธุรกิจระดับสูงนั้น จะใช้เพื่อจัดเตรียมรูปแบบการโต้ตอบด้วยการเรียบเรียงเนื้อหาจากแหล่งข้อมูล โดยแชทบอทจะมีรูปแบบการใช้งานมากมายอยู่ในระบบของตัวเองอยู่แล้ว ตั้งแต่การให้บริการลูกค้าไปจนถึงการช่วยเหลือทีมงานเทคนิคระบุปัญหาต่าง ๆ
สำหรับการใช้งาน ChatGPT ระดับสูงขึ้นไปอีก จะใช้เป็นแชทบอทที่มีความเฉพาะสำหรับ (แชท) โต้ตอบหรือ ‘สนทนา’ กับแหล่งข้อมูลของ GPT ในกรณีนี้แหล่งข้อมูล GPT จะได้รับการทดสอบโดเมนเฉพาะโดย OpenAI ซึ่งข้อมูลการทดสอบที่ใช้ในแบบจำลองนี้จะกำหนดวิธีการตอบคำถาม
อย่างไรก็ตามความสามารถของ GPT สำหรับสร้างฐานข้อมูลยังไม่สามารถคาดเดาได้ว่าข้อมูลที่ได้นั้นเป็นเท็จ นั่นหมายความว่าข้อมูลสามารถใช้ได้กับบางสถานการณ์ที่ข้อผิดพลาดสามารถยอมรับหรือแก้ไขให้ถูกต้องได้
มีรูปแบบการใช้งานโมเดลพื้นฐานมากมาย เช่น GPT ในโดเมนต่าง ๆ ประกอบด้วย Computer Vision, Software Engineering และงานวิจัยและพัฒนาทางวิทยาศาสตร์ (Scientific Research and Development) เช่น มีการใช้แบบจำลองพื้นฐานสร้างรูปภาพขึ้นจากข้อความ และตรวจสอบโค้ดจากภาษาธรรมชาติ (Natural Language) รวมถึงการทำ Smart Contracts หรือแม้แต่ในด้านการดูแลสุขภาพ (Healthcare) เช่น การสร้างยารักษาโรคใหม่ ๆ และการถอดรหัสลำดับจีโนมเพื่อจำแนกโรค
ข้อกังวลด้านจริยธรรม
โมเดลแบบจำลองพื้นฐาน AI เช่น GPT แสดงให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ด้าน AI จากประโยชน์เฉพาะตัวที่มอบให้ อาทิ การช่วยลดต้นทุนและระยะเวลาสร้างโมเดลแบบจำลองเฉพาะโดเมน
อย่างไรก็ตามสิ่งเหล่านี้ก่อให้เกิดความเสี่ยงและข้อกังวลด้านจริยธรรม ซึ่งประกอบด้วย
Complexity: โมเดลจำลองขนาดใหญ่ต้องใช้พารามิเตอร์นับพันล้านหรืออาจมากถึงล้านล้าน โดยโมเดลจำลองเหล่านี้มีขนาดใหญ่เกินไปที่องค์กรจะนำมาทดสอบใช้งาน เนื่องจากต้องใช้ทรัพยากรการประมวลผลที่จำเป็นจำนวนมาก อาจทำให้มีราคาแพงและไม่เป็นมิตรต่อสิ่งแวดล้อม
Concentration of power: โมเดลจำลองเหล่านี้ส่วนใหญ่สร้างขึ้นโดยบริษัทเทคโนโลยีที่ใหญ่ที่สุด ด้วยการลงทุนกับการวิจัยและพัฒนาจำนวนมหาศาล และมีความสามารถด้าน AI เป็นสำคัญ ซึ่งสิ่งเหล่านี้ส่งผลให้เกิดการกระจุกตัวของอำนาจในหน่วยงานขนาดใหญ่ไม่กี่แห่ง อาจสร้างความไม่สมดุลในอนาคต
Potential misuse: โมเดลจำลองพื้นฐานช่วยลดต้นทุนในการสร้างเนื้อหา ซึ่งหมายความว่าการสร้าง Deepfake ที่ใกล้เคียงกับต้นฉบับจะง่ายขึ้น รวมถึงทุก ๆ อย่าง ตั้งแต่การเลียนแบบเสียงและวิดีโอไปจนถึงผลงานศิลปะปลอม ตลอดจนการโจมตีแบบกำหนดเป้าหมาย ซึ่งข้อกังวลด้านจริยธรรมร้ายแรงที่เกี่ยวข้องอาจทำให้เสียชื่อเสียงหรือสร้างความขัดแย้งทางการเมืองได้
Black-box nature: โมเดลจำลองเหล่านี้ยังต้องการการทดสอบอย่างถี่ถ้วนและสามารถมอบผลลัพธ์ที่ไม่น่าพอใจ เนื่องจากการทดสอบในลักษณะกล่องดำ (Black-box nature) ที่ไม่คำนึงถึงคำสั่งภายในซอฟต์แวร์ และคลุมเครือว่าฐานข้อมูลที่ตอบสนองนั้นเท็จจริงเพียงใด อาจนำเสนอผลลัพธ์ที่เอนเอียงได้จากข้อมูลที่กำหนดไว้ โดยกระบวนการทำให้ข้อมูลตรงกันของแบบจำลองดังกล่าวสามารถนำไปสู่ความล้มเหลวได้ หากคลาดเคลื่อนเพียงจุดเดียว
Intellectual property: โมเดลแบบจำลองถูกทดสอบกับคลังข้อมูลของชิ้นงานที่สร้างขึ้น และยังไม่ชัดเจนว่าจะมีกฎหมายบังคับอย่างไรสำหรับการนำเนื้อหานี้กลับมาใช้ใหม่ และหากเนื้อหานั้นมาจากทรัพย์สินทางปัญญาของผู้อื่น
แนวทางการใช้โมเดลพื้นฐานเอไออย่างมีจริยธรรม
เริ่มต้นจากการใช้งานการประมวลผลภาษาตามธรรมชาติ (Natural Language Processing – NLP) เช่น การจัดหมวดหมู่ การสรุป และการสร้างข้อความในสถานการณ์ที่ไม่ได้เจอตัวลูกค้า และเลือกงานที่มีความเฉพาะ โดยโมเดลจำลองที่ได้รับการฝึกฝนมาแล้วจะสามารถลดต้นทุนการปรับแต่งและการทดสอบที่มีราคาแพง หรือใช้ในกรณีที่ต้องการตรวจสอบผลลัพธ์โดยมนุษย์
ใช้สร้างเอกสารเชิงกลยุทธ์ที่สรุปประโยชน์ ความเสี่ยง โอกาส และแผนงานการปรับใช้โมเดลจำลองพื้นฐาน AI เช่น GPT ซึ่งจะช่วยพิจารณาว่าได้ประโยชน์มากกว่าความเสี่ยงหรือไม่ กรณีที่นำมาใช้งานเฉพาะ
ใช้ APIs บนคลาวด์สำหรับสร้างรูปแบบจำลองและเลือกแบบจำลองที่มีขนาดเล็กที่สุด เพื่อให้มีความแม่นยำและมีประสิทธิภาพตรงตามความต้องการเพื่อลดความซับซ้อนในการดำเนินงาน ลดการใช้พลังงานและเพิ่มประสิทธิภาพด้านต้นทุนรวมสำหรับการเป็นเจ้าของ
จัดลำดับความสำคัญของผู้จำหน่ายที่ส่งเสริมการปรับใช้โมเดลอย่างมีความรับผิดชอบโดยการเผยแพร่แนวทางการใช้งาน การบังคับใช้ รวมถึงบันทึกช่องโหว่และจุดอ่อนที่ทราบ พร้อมเปิดเผยพฤติกรรมที่เป็นอันตรายและสถานการณ์การใช้งานในทางที่ผิดแบบเชิงรุก