TOP

Sitemap

Sitemap Descriptions

เกี่ยวกับ สพธอ.

Knowledge Sharing

Responsible AI in Action

Digital Service Documents
  • 28 ก.พ. 63
  • 1586

Responsible AI in Action

การใช้ปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI หลายคนอาจจะมองแต่เรื่องดี แต่หากใช้ไม่ระวังอาจส่งผลกระทบด้านลบด้วยเช่นกัน จึงต้องมั่นใจว่า AI ที่ใช้มีประโยชน์และไม่เป็นภัยคุกคามต่อมนุษย์ ผู้ประกอบการที่ผลิตและสร้าง AI จึงไม่ควรมองแค่เรื่องผลประกอบการ แต่ต้องมีความรับผิดชอบและจริยธรรมในการดำเนินธุรกิจด้วย 

Responsible_AI_ETDA_2(3).png

นี่คือหนึ่งในข้อคิดที่ ธัชกรณ์ วชิรมน ประธานเจ้าหน้าที่บริหารและผู้ก่อตั้งบริษัท เซอร์ทิส จำกัด ผู้ประกอบการสตาร์ตอัปไทยที่ไปไกลทั่วโลก ด้วย Data และ AI ได้แชร์บน Responsible AI  ที่ สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม และ บริษัท ไมโครซอฟท์ ประเทศไทย จัดขึ้น เพื่อสานต่อเวทีแชร์ความรู้เทคโนโลยี AI ให้กับกลุ่มผู้บริหารของไทย

ธัชกรณ์ กล่าวว่า แม้เรื่อง จริยธรรม AI เป็นเรื่องยากที่จะอธิบายให้ทุกคนเข้าใจ แต่ก็มองข้ามไม่ได้ ดังนั้น ในกระบวนการสร้างจริยธรรม AI ของเซอร์ทิส จึงต้องมีบอร์ด ซึ่งประกอบด้วยผู้เชี่ยวชาญที่มาจากหลากหลายแผนกเข้ามาดูแลเรื่องนี้โดยเฉพาะ ที่สำคัญต้องเปิดรับฟังและแลกเปลี่ยนความคิดเห็นจากพนักงานด้วย เพื่อให้หลักจริยธรรม AI ในองค์กร ทันสมัย และอัพเดทตลอดเวลา ที่สำคัญคือ มีมาตรฐานเทียบเท่าสากล เพราะพนักงานในบริษัทส่วนใหญ่มาจากนานาประเทศ ที่พร้อมมาแชร์ประสบการณ์และความรู้

ทำไมบริษัทผู้สร้าง AI ต้องคำนึงถึงจริยธรรมและความรับผิดชอบ

การพัฒนาเทคโนโลยี AI ที่มาพร้อมกับความทันสมัย ฉลาดล้ำ ล้วนเกี่ยวเนื่องกับจริยธรรมและความรับผิดชอบที่ต้องคำนึงถึงอย่างเลี่ยงไม่ได้ เช่น ปัจจุบัน มีการนำ AI มาวิเคราะห์พฤติกรรมการเปิดรับชมวิดีโอสตรีมมิงว่าชอบ หรือเปิดรับชมเนื้อหาประเภทใดมากที่สุด AI ก็จะแนะนำวิดีโอที่มีเนื้อหาลักษณะคล้ายกันให้กับผู้ชมอย่างต่อเนื่อง ไม่เว้นแม้แต่เนื้อหาความรุนแรง หรือลัทธิความเชื่อที่ก่อให้เกิดผลกระทบด้านลบต่าง ๆ

ที่ก้าวหน้าไปมากกว่านั้น คือ เมื่อประเทศจีนใช้ AI ในการระบุตัวตนประชากร ใครเดินไปที่ไหน กล้องและ AI สามารถระบุชื่อ อายุ ที่อยู่ ได้อย่างแม่นยำ แม้อาจมองเป็นเรื่องดี หากมองในมุมของความปลอดภัย (Safety) หรือความมั่นคงปลอดภัย (Security) แต่กลับกันอาจผิดหลักความเป็นส่วนตัว (Privacy) ที่คนทั่วโลกกำลังให้ความสำคัญ

นอกจากนี้ ยังพบว่า AI ถูกนำไปใช้ในการพัฒนาอาวุธ หรือใช้สร้าง Fake News เพื่อประโยชน์ทางการเมือง

ดังนั้น การสร้างหรือพัฒนา AI ไม่เพียงต้องคำนึงถึงหลักจริยธรรมเท่านั้น แต่ต้องดูด้วยว่า เราขายให้กับใคร เพราะเทคโนโลยีอาจดูเหมือนไม่อันตราย แต่ผู้ที่ซื้อไปอาจนำไปใช้ในทางที่ผิด

Slide19(2).png

ในฐานะผู้สร้าง AI ทางเซอร์ทิส จึงตระหนักและไม่ได้กำหนดแค่เป็นหลักการหรือ AI Principles เท่านั้น แต่ยังใส่ไปในแผนปฏิบัติการหรือ Action Plan ว่า 

  • ไม่ถูกนำไปใช้ในทางที่ผิด ทำอันตรายต่อมนุษย์ 
  • ไม่มีการปิดบัง เปิดเผยในประเด็นจริยธรรมที่สำคัญ เพื่อบ่งบอกว่าการพัฒนานี้ทำในทางที่ดี
  • ไม่สร้างอาวุธ หรือพัฒนาให้อาวุธมีประสิทธิภาพในการทำร้ายกันมากขึ้น
  • ไม่ทำงานกับพรรคการเมือง เพื่อนำ Data หรือ AI ไปเปลี่ยนคะแนนเสียงเลือกตั้ง 
  • ไม่หลอกหรือทำให้คนเข้าใจอะไรผิด การใช้ AI ต้องเชื่อในความจริง ไม่ใช้เพื่อปั่นหัวคน 
“AI เป็นเทคโนโลยีที่กำลังเปลี่ยนโลก การปฏิวัติด้วย AI ยังไงก็ต้องเกิด ไม่ต่างจากอดีตที่มีไฟฟ้าเข้ามาครั้งแรก ทุกคนต่างตั้งคำถามว่า เราต้องใช้หรือไม่ แต่กลายเป็นว่า ปัจจุบันไม่มีใครที่ไม่ใช้ไฟฟ้าเลย เทคโนโลยี AI ก็เช่นกัน ตอนนี้หลายคนคงสงสัย ทำไมต้องใช้ มันมีประโยชน์อย่างไร แต่เชื่อว่าไม่นาน คงไม่มีองค์กรใดที่ไม่ใช้ AI" ธัชกรณ์ ทิ้งท้ายว่า 

แต่ในทางกลับกัน AI ที่ผู้ประกอบการสร้างขึ้นมา ทุกคนที่ใช้ต้องมั่นใจว่าเป็นเทคโนโลยีที่ดี ไม่สร้างปัญหา ซึ่งการมีจริยธรรม AI ที่ดี ใช้งานได้จริง ไม่เพียงการันตีว่า AI ยั่งยืน แต่มนุษย์ก็ยั่งยืนด้วย”  

สไลด์ Responsible AI in Action​

อ่านต่อ ETDA เปิดเวที เร่งสร้างความเข้าใจผู้บริหารไทย ใช้ AI อย่างรับผิดชอบ

 

Rating :
Avg: 0 (0 ratings)