TNN online 5 เหตุผล ทำไมการพัฒนา AI อย่างปลอดภัยถึงไม่ง่ายอย่างที่คิด!

TNN ONLINE

Tech

5 เหตุผล ทำไมการพัฒนา AI อย่างปลอดภัยถึงไม่ง่ายอย่างที่คิด!

5 เหตุผล ทำไมการพัฒนา AI อย่างปลอดภัยถึงไม่ง่ายอย่างที่คิด!

เปิด 5 เหตุผลหลักที่ทำให้การพัฒนาปัญญาประดิษฐ์ (AI) อย่างปลอดภัยไม่ใช่เรื่องง่าย แม้สหภาพยุโรป (อียู) จะสามารถผ่านร่างกฎหมายคุมเทคโนโลยีนี้ได้เป็นครั้งแรกของโลก

ความก้าวหน้าของปัญญาประดิษฐ์ (AI) ในปัจจุบันทำให้เกิดการโต้เถียงของ 2 ขั้ว ที่ว่า เทคโนโลยีแห่งยุคศตวรรษที่ 21 นี้จะเป็นประโยชน์หรือปัญหาต่อมวลมนุษยชาติ นั่นเป็นเหตุผลสำคัญที่ทำให้รัฐสภายุโรปลงคะแนนเสียงผ่านร่างกฎหมาย AI ฉบับแรกของโลกเมื่อวันที่ 14 มิถุนายน แต่ถึงแม้เราจะมีกรอบกฎหมายที่ช่วยกำกับดูแล AI ในสหภาพยุโรป (อียู) แต่การพัฒนาของเทคโนโลยีดังกล่าวอย่างปลอดภัยในระดับสากลนั้นยังไม่ใช่เรื่องง่าย โดยมีความท้าทายหลัก 5 ประการ ดังนี้


1. ความท้าทายในการสร้างนิยามของ AI 


กว่าจะถึงวันนี้ รัฐสภายุโรปต้องใช้เวลานานถึงสองปีในการสร้างคำจำกัดความของ AI นั่นคือ “ระบบซอฟต์แวร์ที่สามารถสร้างสรรค์ผลลัพธ์ต่าง ๆ อาทิ เนื้อหา การคาดคะเน ข้อแนะนำ และการตัดสินใจอื่น ๆ ที่มีอิทธิพลต่อสิ่งแวดล้อมที่ระบบคอมพิวเตอร์มีปฏิสัมพันธ์ด้วยตามเป้าประสงค์ที่มนุษย์เป็นผู้กำหนด” 


โดยในสัปดาห์ที่ผ่านมา รัฐสภายุโรปได้ประชุมเพื่อลงคะแนนรับรองร่างกฎหมายว่าด้วยเรื่องปัญญาประดิษฐ์ซึ่งเป็นกฎข้อบังคับที่เกี่ยวกับเทคโนโลยีดังกล่าวฉบับแรก ที่กำหนดให้บริษัทต่าง ๆ ต้องปฏิบัติตามเพื่อความปลอดภัย


2. ความจำเป็นที่จะต้องบรรลุความเห็นร่วมระดับโลก


ซานา คารากานี (Sana Kharaghani) อดีตหัวหน้าสำนักงานด้านปัญญาประดิษฐ์แห่งสหราชอาณาจักร กล่าวว่า เทคโนโลยีนี้เป็นความท้าทายที่ไร้ซึ่งพรมแดน 


“เราจําเป็นต้องมีความร่วมมือระหว่างประเทศในเรื่องนี้ ฉันรู้ว่ามันจะไม่ใช่เรื่องง่าย" คารากานีกล่าวพร้อมย้ำว่า "นี่ไม่ใช่ประเด็นภายในประเทศ เทคโนโลยีเหล่านี้ไม่ได้อยู่ในขอบเขตของประเทศใดประเทศหนึ่ง” 


อย่างไรก็ดี ปัจจุบันยังไม่มีแผนการสร้างกฎหมายควบคุม AI ในระดับสากล แม้ว่าหลายประเทศจะเคยแสดงความเห็นในเรื่องดังกล่าวซึ่งมีความแตกต่างกันในบางจุด เช่น

- สหภาพยุโรป (EU) เสนอข้อบังคับที่มีความเข้มงวดที่สุด ซึ่งรวมถึงการจัดระดับผลิตภัณฑ์ AI จากผลกระทบที่เกิดขึ้น แต่กฎระเบียบจะยังมีความออมชอมและไม่ใช่การตัดทุกอย่างที่ถูกมองว่าอันตรายออกทั้งหมด 

- สหราชอาณาจักร ใช้วิธีกระจายประเด็นกฎระเบียบด้านปัญญาประดิษฐ์ให้กับหน่วยงานที่มีอยู่เป็นผู้ดูแล เช่น คณะกรรมการความเท่าเทียมจะเป็นผู้จัดการประเด็นการเลือกปฏิบัติจาก AI เป็นต้น 

- สหรัฐอเมริกา ยึดเพียงแนวทางการควบคุมตามความสมัครใจเท่านั้น ขณะที่สภานิติบัญญัติยอมรับว่ากังวลต่อผลกระทบของ AI ในการประชุมของคณะกรรมการในเรื่องดังกล่าวเมื่อไม่นานมานี้ 

- จีน ตั้งใจที่จะให้บริษัทต่าง ๆ แจ้งผู้ใช้งานทุกครั้งที่มีการใช้ AI


3. การสร้างความเชื่อมั่นภาคประชาชน


แน่นอนว่าปัญญาประดิษฐ์ (AI) สามารถสร้างประโยชน์และพัฒนาคุณภาพชีวิตให้กับผู้คนได้มากมาย อย่างในปัจจุบันได้มีการนำเทคโนโลยีนี้มาใช้ในการช่วยในการค้นหายาต้านปฏิชีวนะ หรือแม้แต่การช่วยรับมือความท้าทายในโลกสมัยใหม่อย่างสภาพภูมิอากาศเปลี่ยนแปลงและโรคระบาด แต่ก็ยังมีบางส่วนงานที่ผู้คนไม่มั่นใจให้ AI รับผิดชอบ เช่น การคัดเลือกผู้สมัครงานใหม่ หรือการคาดคะเนแนวโน้มการก่ออาชญากรรมของผู้คน


โจทย์สำคัญอีกข้อหนึ่งจึงเป็นเรื่องของการสร้างความมั่นใจให้กับสาธารณะ สอดคล้องกับที่ ไอบีเอ็ม (IBM) ยักษ์ใหญ่ด้านเทคโนโลยีและผู้ผลิตคอมพิวเตอร์ชื่อดัง, รัฐบาลของสหภาพยุโรปและ ฌอง-มาร์ก เลอเคลิร์ก (Jean-Marc Leclerc) หัวหน้าฝ่ายรัฐบาลสัมพันธ์ของ IBM กล่าวว่า “หากประชาชนเชื่อมั่น พวกเขาก็จะใช้มัน”


รัฐสภาสภายุโรปยังต้องการให้ประชาชนทราบถึงความเสี่ยงที่มาพร้อมกับผลิตภัณฑ์ AI ในแต่ละรายการ โดยบริษัทที่ฝ่าฝืนกฎอาจถูกปรับมากกว่า 30 ล้านยูโร หรือกว่า 1,130 ล้านบาท หรือ 6% ของมูลค่าการซื้อขายประจำปีทั่วโลก


4. การตัดสินใจว่าใครจะเป็น “ผู้เขียนกฎ”


จนถึงตอนนี้ การวางกฎระเบียบด้าน AI มีความแตกต่างไปตามแต่ละองค์กร ขณะที่แซม อัลต์แมน (Sam Altman) ซีอีโอของโอเพนเอไอ (OpenAI) บริษัทผู้สร้าง ChatGPT แชตบอตปัญญาประดิษฐ์ที่มีความชาญฉลาดทางภาษาและสามารถตอบคำถามได้อย่างมนุษย์ กล่าวว่า บริษัทใหญ่ ๆ ต่างเห็นด้วยกับกฎระเบียบของรัฐบาลที่สําคัญเพื่อลดความเสี่ยงที่อาจเกิดขึ้น


แต่ก็เกิดคำถามที่ว่า พวกเขาให้ความสำคัญกับกำไรมากกว่าประโยชน์ของผู้คนหรือไม่ หากบริษัทเหล่านี้มีส่วนร่วมในการร่างกฎมากเกินไป ซึ่งแน่นอนว่าพวกเขาต้องการที่จะสร้างสัมพันธ์ที่ดีกับเหล่าผู้บัญญัติกฎหมาย


อีกทั้งจะต้องให้องค์กรอื่น ๆ นอกเหนือจากบริษัทเอกชน เช่น ภาคประชาสังคม และฝ่ายวิชาการ เข้ามามีส่วนร่วมในการสร้างกฎหมายด้วย


5. การพัฒนาที่รวดเร็วอย่างก้าวกระโดดของ AI


ปัจจุบัน AI พัฒนาไปอย่างรวดเร็ว บริษัทไมโครซอฟต์ (Microsoft) บริษัทซอฟต์แวร์ระดับโลก หนึ่งในผู้ร่วมลงทุนในการพัฒนา ChatGPT กล่าวว่าเทคโนโลยีนี้จะมาช่วยลดความลำบากและความเหนื่อยหน่ายจากการทำงาน 


เช่นเดียวกับที่ซีอีโอของ OpenAI เน้นย้ำว่า ChatGPT เป็นเครื่องมือ ไม่ใช่สิ่งมีชีวิต ที่ควรทําให้คนมีประสิทธิภาพในการทำงานมากขึ้น 


อย่างไรก็ดี ChatGPT ที่เพิ่งเปิดตัวมาได้เพียง 6 เดือน กลับมีความสามารถทางภาษาของมนุษย์ที่ก้าวกระโดด รวมถึงการที่ 2 ใน 3 ของเจ้าพ่อแห่งปัญญาประดิษฐ์ อย่าง เจฟฟรีย์ ฮินติน และโยชัว เบนจิโอ ก็ออกมาเตือนว่าความฉลาดของเทคโนโลยีนี้อาจก่อให้เกิดหายนะกับมนุษยชาติ 


ดังที่ มาเกรเธอ เวสทาเกอร์ (Margrethe Vestager) หัวหน้าฝ่ายเทคโนโลยีของสหภาพยุโรปกล่าวว่า การบังคับกฎหมายควบคุม AI อย่างเร็วที่สุดในปี 2025 นั้นยังช้าเกินไป


ที่มาของข้อมูล BBC

ที่มาของรูปภาพ Pixabay 


ข่าวฮิตติดแท็ก

ข่าวแนะนำ

ข่าวที่เกี่ยวข้อง