TOP

Sitemap

Sitemap Descriptions

เกี่ยวกับ สพธอ.

Knowledge Sharing

เมื่อ AI ช่วยคิดได้มากขึ้น มนุษย์ยิ่งต้อง “ไม่หยุดคิด” ชวนทำความเข้าใจบทบาทใหม่ของคนทำงาน จาก “ผู้ใช้งาน AI” สู่ “ผู้กำกับ AI

Digital Citizen Documents
  • 30 เม.ย. 69
  • 45

เมื่อ AI ช่วยคิดได้มากขึ้น มนุษย์ยิ่งต้อง “ไม่หยุดคิด” ชวนทำความเข้าใจบทบาทใหม่ของคนทำงาน จาก “ผู้ใช้งาน AI” สู่ “ผู้กำกับ AI

ปฏิเสธไม่ได้ว่า AI ช่วยให้การทำงานมีประสิทธิภาพและเร็วขึ้นอย่างมาก คำถามวันนี้อาจไม่ใช่แค่ว่า “เราใช้ AI เป็นหรือยัง?” แต่ต้องขยับมุมคิดให้ไกลกว่านั้นว่า “เราคิดทัน AI หรือเปล่า?” และ “ในวันที่ AI เข้ามาช่วยคิดมากขึ้น เราควรปรับบทบาทตัวเองไปในทางไหน?”
            การเกิดขึ้นของ “Generative AI” ทำให้รูปแบบการทำงานของมนุษย์เปลี่ยนไปอย่างชัดเจน จากที่ต้องใช้เวลาทำหลายชั่วโมง ก็ร่นระยะเวลาให้สั้นลงด้วยการมี AI เป็นตัวช่วยทำงาน กลุ่มคนที่ใช้ AI ในชีวิตประจำวันมีหลากหลายตั้งแต่ประชาชนทั่วไป นักเรียน นักศึกษา และคนวัยทำงาน ซึ่งคนวัยทำงานใช้ AI ตอบคำถาม เขียนบทความ สร้างภาพ สร้างวิดีโอ ทำสไลด์ และอื่น ๆ อีกมากมาย
Pic-1_AI-Generative.png

ระวัง “3 กับดัก” ในคราบของ AI หากใช้อย่างไม่รู้เท่าทัน
            การใช้ AI มาช่วยทำงานไม่ได้เป็นเรื่องผิด แต่หากใช้แบบไม่ระวังก็อาจจะ “พลาด” ได้ง่าย ๆ ดังนั้น มี 3 เรื่องที่คนวัยทำงานต้องระวัง...
            กับดักที่ 1 “ความรวดเร็ว” เพราะมีโอกาสส่งผลให้เกิดการละเลยกระบวนการคิดของตัวเอง ข้อมูลจาก OECD Digital Education Outlook 2026 ระบุว่า คนที่ใช้ AI มักจะนำข้อมูลไปใช้ต่อทันที จนข้ามขั้นตอนการวินิจฉัย การประเมิน และการทำซ้ำ เรียกพฤติกรรมนี้ว่า “Metacognitive Laziness” หรือความขี้เกียจในการตั้งคำถามกับวิธีคิดของตนเอง โดยโยนหน้าที่การคิดไปให้ AI จนตัวเองไม่ได้เกิดกระบวนการเรียนรู้ด้วยตัวเอง
         กับดักที่ 2 ไม่ใช่เพียงเรื่องความเร็วที่ต้องระวัง แต่การเชื่อใจและยึดคำตอบจาก AI เป็นหลักก็ถือเป็นกับดักอันตรายเช่นกัน งานวิจัยจากมหาวิทยาลัยสแตนฟอร์ด เปิดเผยว่า AI จะมีพฤติกรรมพยายามประจบเอาใจผู้ใช้งาน
            กรณีศึกษาจาก Reddit เมื่อมีผู้ใช้งานพยายามถามเรื่องการหลอกคนใกล้ชิด AI จะพยายามโยงเหตุผลมาสนับสนุนว่าพฤติกรรมนั้นถูกต้อง แทนที่จะเตือนสติตามหลักความเป็นจริง ซึ่งหากใช้ AI ในระยะยาว มีโอกาสที่ผู้ใช้งานจะมั่นใจในตัวเองอย่างสุดโต่งและยึดตัวเองเป็นศูนย์กลาง
         กับดักที่ 3 ความน่าเชื่อถือของข้อมูลก็ยังเป็นข้อควรระวังสำคัญ เพราะ AI อาจเกิดภาวะที่เรียกว่า “AI Hallucination” หรือการสร้างคำตอบที่ดูน่าเชื่อถือ แม้ข้อมูลนั้นจะไม่ถูกต้องหรือไม่มีแหล่งอ้างอิงที่ชัดเจน ทั้งนี้เนื่องจากระบบ AI ทำงานด้วยการประมวลผลจากรูปแบบภาษาและข้อมูลที่ผ่านการฝึกมา ไม่ได้ “เข้าใจ” ความจริงเหมือนมนุษย์    
            ด้วยเหตุนี้ ทำให้บางครั้ง แม้ AI จะไม่มีคลังข้อมูลในเรื่องที่เราถามไป แต่มันก็สามารถให้คำตอบที่สละสลวย ดูน่าเชื่อถือแก่เราได้ แต่ในความเป็นจริงข้อมูลเหล่านั้นอาจคลาดเคลื่อนจากข้อเท็จจริง หรือถูกปั้นแต่งขึ้นมาแบบไม่มีแหล่งอ้างอิง
            ดังนั้นหากผู้ใช้งานไม่ตรวจสอบให้รอบคอบ ก็อาจนำข้อมูลที่ผิดหรือไม่ครบถ้วนไปใช้และก่อให้เกิดความเสียหายได้
ความท้าทายของคนวัยทำงานในยุค AI จึงไม่ได้อยู่แค่การใช้เครื่องมือให้เป็นเท่านั้น แต่ยังรวมถึงการรู้ว่าควรระวังอะไรบ้าง เพื่อไม่ให้ “ความสะดวก”, “ความรวดเร็ว” และ “ความถูกใจ” กลายเป็นจุดเริ่มต้นของ “ความผิดพลาด” ในการทำงาน
Pic-2_AI-Hallucinate.png

เมื่อแปลงกับดักเหล่านี้มาเป็นพฤติกรรมการใช้งานจริง จะเห็นได้ว่ามี 4 เรื่องหลักที่คนทำงานควรระวังเป็นพิเศษ ดังนี้

  • ไม่ตรวจสอบข้อมูลต้นทาง
แม้คำตอบจาก AI จะดูครบถ้วนและเรียบเรียงมาดี แต่ไม่ได้หมายความว่าจะถูกต้องทั้งหมดเสมอไป โดยเฉพาะข้อมูลที่เกี่ยวข้องกับตัวเลข ข้อกฎหมาย ข้อเท็จจริงเชิงวิชาการ หรือข้อมูลเฉพาะทาง ซึ่งหากไม่ตรวจสอบกับแหล่งข้อมูลต้นทาง ก็อาจนำข้อมูลผิดไปใช้ต่อได้ง่าย
  • ใช้คำตอบของ AI โดยไม่เช็กบริบท
คำตอบที่ดูเหมาะสมในภาพรวม อาจไม่ได้เหมาะกับสถานการณ์จริงเสมอไป เช่น การร่างอีเมลทางธุรกิจ การสรุปประชุม หรือการเขียนข้อเสนอให้ลูกค้า เพราะงานแต่ละชิ้นยังมีรายละเอียด น้ำเสียง และบริบทที่มนุษย์ต้องพิจารณาเพิ่มเติม
  • เลือกคำตอบที่เร็วและไหลลื่น แทนคำตอบที่ถูกและรอบด้าน
จุดเด่นของ AI คือความรวดเร็ว แต่ในบางครั้งความเร็วก็ทำให้ผู้ใช้เผลอเชื่อใจคำตอบทันที โดยไม่ได้ตั้งคำถามต่อว่า ข้อมูลนั้นครบหรือยัง มีมุมที่ตกหล่นหรือไม่ หรือมีข้อจำกัดอะไรที่ควรพิจารณาเพิ่ม
  • ปล่อยให้ AI คิดแทนทุกขั้นตอน จนตัวเองตั้งคำถามน้อยลง
หากใช้ AI บ่อยโดยไม่ระวัง ผู้ใช้อาจค่อย ๆ ลดบทบาทของตัวเองจาก “ผู้คิด” กลายเป็นเพียง “ผู้รับคำตอบ” ซึ่งในระยะยาวอาจกระทบต่อทักษะสำคัญของคนทำงาน เช่น การคิดเชิงวิเคราะห์ การชั่งน้ำหนักข้อมูล และการตัดสินใจอย่างมีวิจารณญาณ
 
            หนทางที่จะทำให้คนทำงานไม่ตกหลุมพรางของ AI คือการมี AI Literacy เปรียบได้เหมือนการมีภูมิคุ้มกันด้านการใช้ปัญญาประดิษฐ์ โดยเริ่มจากเรื่องพื้นฐาน เช่น เข้าใจว่า AI เรียนรู้จากข้อมูล และข้อมูลอาจมีอคติ รู้ว่าข้อมูลที่เราเห็น ไม่ใช่ทั้งหมดของความจริง รวมถึงกล้าตั้งคำถามกับผลลัพธ์ แม้จะดู “น่าเชื่อถือ” มากก็ตาม
            เมื่อขยับจากระดับบุคคลมาสู่ระดับองค์กร การใช้ Generative AI อย่างมีธรรมาภิบาลก็เป็นอีกเรื่องสำคัญที่ไม่อาจมองข้ามได้ เพราะไม่ว่าหน่วยงานภาครัฐหรือเอกชน ต่างควรสนับสนุนให้บุคลากรมีความรู้ความเข้าใจพื้นฐานเกี่ยวกับ AI ทั้งในด้านประโยชน์ ข้อจำกัด ความเสี่ยง และการใช้งานอย่างเหมาะสม
            ในประเด็นนี้ สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA โดยศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Center: AIGC) ได้เสนอแนวทางประยุกต์ใช้ Generative AI อย่างมีธรรมาภิบาลสำหรับองค์กร ครอบคลุม 5 ด้านสำคัญ ได้แก่
  1. การทำความเข้าใจ Generative AI เพื่อปูพื้นฐานความรู้และคำศัพท์ที่เกี่ยวข้องให้บุคลากรในองค์กรมีความเข้าใจตรงกัน
  2. ประโยชน์และข้อจำกัดของ Generative AI เพื่อให้เห็นทั้งศักยภาพในการนำไปใช้งานจริงและข้อจำกัดที่ต้องพิจารณาอย่างรอบคอบ พร้อมตัวอย่างการใช้งานที่น่าสนใจ
  3. ความเสี่ยงของ Generative AI เพื่อสร้างความเข้าใจเกี่ยวกับประเด็นที่อาจเกิดขึ้นจากการใช้งาน รวมถึงแนวทางบริหารจัดการความเสี่ยงให้เหมาะสมกับบริบทขององค์กร
  4. แนวทางการนำ Generative AI มาประยุกต์ใช้ เพื่อให้เกิดความเข้าใจต่อยอดไปสู่การใช้งานจริง ทั้งในเชิงโครงสร้างและรูปแบบที่สอดคล้องกับบริบทของแต่ละองค์กร
  5. ข้อพิจารณาสำหรับการประยุกต์ใช้ Generative AI อย่างมีธรรมาภิบาล เพื่อสร้างสมดุลระหว่างการใช้ประโยชน์กับการควบคุมความเสี่ยง พร้อมเปิดโอกาสให้ผู้เกี่ยวข้องมีส่วนร่วมอย่างเหมาะสม

            แนวทางดังกล่าวสะท้อนให้เห็นว่า การใช้ AI ให้เกิดประโยชน์สูงสุด ไม่ได้อาศัยเพียงความสามารถในการใช้งานเครื่องมือเท่านั้น แต่ยังต้องอาศัยความเข้าใจเชิงระบบและความรับผิดชอบร่วมกันของทั้งคนทำงานและองค์กรด้วย
Pic-3_AI-Fluency.png

ทักษะใหม่ที่คนทำงานต้องมี เพื่อเชื่อมการทำงานให้มีประสิทธิภาพยิ่งขึ้น
            แม้องค์กรจะมีแนวทางกำกับการใช้ AI ที่รอบด้านเพียงใด หากคนทำงานยังขาดทักษะในการทำงานร่วมกับ AI อย่างเหมาะสม การใช้เครื่องมือนี้ก็อาจไม่ก่อให้เกิดประโยชน์สูงสุดได้ นั่นจึงทำให้ “AI Fluency” กลายเป็นอีกหนึ่งทักษะสำคัญของคนทำงานในยุคนี้
            สำนักงานนวัตกรรมแห่งชาติ (องค์การมหาชน) ได้อธิบายว่า AI Fluency เป็นการทำงานร่วมกับ AI อย่างมีกลยุทธ์ เพื่อให้ได้ผลลัพธ์ตามที่ต้องการ ประกอบด้วย 4D ดังนี้

  • หรือ การมอบหมายงาน คือการกำหนดผลลัพธ์ให้ชัด แล้วจึงตัดสินใจให้ AI รับผิดชอบบางส่วน ทักษะนี้ไม่เพียงยกระดับคุณภาพผลงาน แต่ยังส่งผลให้มีเวลาโฟกัสกับโจทย์เชิงกลยุทธ์และความคิดสร้างสรรค์มากขึ้น
  • หรือ การออกแบบคำสั่งอย่างแม่นยำ คือการออกแบบคำสั่งเพื่อสื่อสารกับ AI ได้อย่างมีโครงสร้าง กำหนดบริบท เป้าหมาย และข้อมูลที่จำเป็นอย่างครบถ้วน ทักษะนี้ช่วยลดรอบการแก้ไขงานและได้ผลงานที่มีคุณภาพพร้อมใช้งาน
  • หรือ วิจารณญาณในการประเมินผลลัพธ์ คือแม้คำตอบจาก AI จะดูน่าเชื่อถือ แต่อาจมีความคลาดเคลื่อนหรือแฝงด้วยอคติ จึงต้องตั้งคำถาม ตรวจสอบ ประมวลผล และคิดเชิงวิพากษ์อยู่เสมอ เพื่อป้องกันความเสี่ยงจากการนำข้อมูลที่ไม่ผ่านการกลั่นกรองไปใช้
  • หรือ ความรับผิดชอบด้านจริยธรรมการใช้งาน คือต้องประเมินได้ว่าเครื่องมือใดเหมาะสมกับงาน ในแง่ประสิทธิภาพความถูกต้อง ชัดเจน โปร่งใส รวมถึงการคำนึงถึงหลักจริยธรรม ความเป็นธรรม สิทธิ และกฎหมาย

 
            เมื่อมองภาพรวมทั้งหมด จะเห็นได้ชัดว่า สิ่งที่จะทำให้คนทำงานอยู่รอดในยุค AI ไม่ใช่แค่การเป็น “ผู้ใช้งาน AI” อย่างคล่องแคล่ว แต่คือการขยับบทบาทขึ้นมาเป็น “ผู้กำกับ AI” อย่างชาญฉลาด
            แนวคิดนี้สอดคล้องกับสิ่งที่หลายองค์กรและงานวิจัยกำลังสะท้อนออกมา สถาบันวิจัยเพื่อการพัฒนาประเทศไทย (TDRI) เผยแพร่บทความอ้างอิงงานวิจัยของ McKinsey Global Institute ระบุว่า การมาถึงของ AI เข้ามาเปลี่ยนบทบาทของมนุษย์จาก “ผู้ลงมือทำ” ให้เป็น “ผู้กำกับดูแล” ส่งผลให้ตลาดแรงงานในอนาคตต้องการคนที่ไม่ได้เพียงใช้เครื่องมือเป็น แต่ต้องสามารถตรวจงาน ประเมินผล และรับผิดชอบต่อสิ่งที่ AI สร้างขึ้นได้ด้วย
            นั่นหมายความว่า ในโลกการทำงานยุคใหม่ อาจไม่ใช่คนที่ทำงานได้เร็วที่สุดเท่านั้นที่จะได้เปรียบ แต่คือคนที่รู้ว่าควรใช้ AI ตรงไหน ควรตรวจสอบอะไร และควรรับมือกับความเสี่ยงอย่างไรต่างหากที่มีแนวโน้มจะเป็นที่ต้องการมากกว่า
Pic-4_Human-Lead-AI-2.png

แค่มีทักษะไม่พอ คนทำงานต้อง “ปรับบทบาท” ของตัวเองด้วย
            หากมองการทำงานเป็นเส้นตรงที่มีจุดเริ่มต้นและจุดสิ้นสุด บทบาทของมนุษย์ยังคงสำคัญในทุกช่วง ตั้งแต่การวางกลยุทธ์ การตั้งโจทย์ การตรวจสอบข้อมูลจากแหล่งอ้างอิง ไปจนถึงการตัดสินใจและรับผิดชอบต่อผลลัพธ์สุดท้าย เพราะสิ่งเหล่านี้ยังคงเป็นสิ่งที่มนุษย์มี “คุณค่า” เหนือ AI
            บทบาทสำคัญของคนทำงานในยุค AI จึงอาจสรุปได้ 4 ด้าน ได้แก่

  • ผู้คิดเชิงกลยุทธ์และการสร้างสรรค์สิ่งใหม่ คนทำงานต้องวางตัวเองให้อยู่ในบทบาทของผู้กำหนดทิศทาง วางกลยุทธ์ และสร้างแนวคิดใหม่ ๆ ที่ต้องอาศัยประสบการณ์จริง ดังนั้นควรใช้ AI เป็นเพียง "คู่คิด" (Co-pilot) เพื่อช่วยระดมสมอง แต่ไม่ใช่ให้ AI คิดแทนทั้งหมด จะถือเป็นการรักษาความเฉียบคมของสมองและความภาคภูมิใจในกระบวนการคิดของตนเอง
  • คนทำงานต้องสามารถ "ตรวจงาน AI" เพื่อยืนยันความถูกต้องของข้อมูล และจัดการกับกรณีพิเศษหรือข้อผิดพลาดที่ AI ไม่สามารถจัดการได้ ซึ่งต้องใช้ความเชี่ยวชาญเฉพาะด้านที่สั่งสมมาอย่างยาวนาน
  • ในขั้นสุดท้ายของการทำงานต้องอาศัยวิจารณญาณของมนุษย์เสมอ ไม่ว่าจะเป็นในเรื่องสิทธิ กฎหมาย ผลประโยชน์ รวมถึงจริยธรรม เพราะการตัดสินใจในเรื่องที่ซับซ้อนและต้องรับผิดชอบต่อผลลัพธ์ยังคงเป็นหน้าที่หลักของมนุษย์
  • ผู้สื่อสารที่มีปฏิสัมพันธ์ทางสังคม มนุษย์ยังคงสำคัญในงานที่เกี่ยวข้องกับการเจรจาต่อรอง การประสานงาน ความเห็นอกเห็นใจ เข้าใจบริบทของสถานการณ์ รวมถึงการแก้ปัญหาเฉพาะหน้า

            กล่าวโดยสรุปคือ AI อาจเป็น “คู่คิด” ที่ดี แต่ไม่ควรกลายเป็น “ผู้คิดแทน” จนมนุษย์ค่อย ๆ สูญเสียความสามารถในการตั้งคำถาม วิเคราะห์ และตัดสินใจด้วยตัวเอง
Pic-5_AI-Collaboration.jpg

ด้วยเหตุนี้ การจะปรับตัวไปสู่บทบาท “ผู้กำกับ AI” จึงไม่ได้เกิดขึ้นได้เพียงชั่วข้ามคืน แต่ต้องอาศัยการค่อย ๆ สร้างทักษะสำคัญและยกระดับวิธีคิดของคนทำงานอย่างต่อเนื่อง ซึ่งเป็นโจทย์เดียวกับที่ ETDA ให้ความสำคัญมาโดยตลอด
            ETDA ได้พัฒนาองค์ความรู้ด้าน Digital Literacy และ AI Literacy ให้สอดคล้องกับบริบทของคนรุ่นใหม่ โดยเฉพาะผู้ที่เพิ่งเริ่มต้นทำงาน รวมถึงนักศึกษาที่กำลังก้าวสู่โลกการทำงาน ผ่านหลักสูตร EDC Plus ที่มุ่งส่งเสริมให้คนไทยใช้เทคโนโลยีได้อย่างรู้เท่าทัน สร้างสรรค์ และปลอดภัย เพื่อก้าวสู่การเป็น “พลเมืองดิจิทัล” ที่มีคุณภาพและมีความฉลาดทางดิจิทัลอย่างรอบด้าน
            สำหรับผู้ที่ต้องการปูพื้นฐานความเข้าใจเรื่องเทคโนโลยีดิจิทัลและการใช้ AI อย่างมีวิจารณญาณ หลักสูตร EDC Plus ในรูปแบบ e-Learning (http://www.etda.or.th/th/edcplus) จึงเป็นอีกหนึ่งจุดเริ่มต้นสำคัญที่ช่วยให้การเรียนรู้เรื่องเหล่านี้เข้าถึงได้ง่ายขึ้น และนำไปใช้ได้จริงในชีวิตประจำวันและการทำงาน
            นอกจากการต่อยอดองค์ความรู้ในระดับการเรียนรู้แล้ว ETDA ร่วมกับ TK Park ยังเปิดพื้นที่ให้ประชาชนได้นำความรู้ไปพัฒนาผ่านกิจกรรม “Awakening Digital Literacy Creator 2026 ปลุกพลังความคิด ส่งต่อความรู้ สู่สังคมดิจิทัล” ซึ่งเปิดโอกาสให้คนรุ่นใหม่และประชาชนทั่วไปได้ร่วมออกแบบแคมเปญหรือกิจกรรมรณรงค์ เพื่อช่วยกันขับเคลื่อนสังคมดิจิทัลไทยให้ปลอดภัยและยั่งยืน

Rating :
Avg: 0 (0 ratings)