1 ใน 8 ของโลกยังเข้าไม่ถึง! เปิดรายชื่อ 24 ประเทศ “สั่งแบน” ChatGPT พร้อมเหตุผลสุดอึ้ง
ในขณะที่ปัญญาประดิษฐ์หรือ AI กำลังกลายเป็นเครื่องมือสำคัญที่คนทั่วโลกใช้ช่วยในการทำงาน ตั้งแต่การเขียนอีเมลไปจนถึงการวิเคราะห์ข้อมูลที่ซับซ้อน แต่ความเป็นจริงคือยังมีประชากรจำนวนมหาศาลที่ไม่สามารถเข้าถึง ChatGPT ได้ เนื่องจากรัฐบาลในหลายประเทศสั่งแบนหรือปิดกั้นการเข้าถึงด้วยเหตุผลด้านความมั่นคง การเมือง และความเป็นส่วนตัว
ข้อมูลจาก UNILAD ระบุว่านับตั้งแต่ OpenAI เปิดตัว ChatGPT ในเดือนพฤศจิกายน 2565 แอปพลิเคชันนี้กลายเป็นบริการที่เติบโตเร็วที่สุดในประวัติศาสตร์ โดยมีผู้ใช้งานแตะ 100 ล้านคนภายในเวลาเพียง 2 เดือน
อย่างไรก็ตาม ปัจจุบันมีประเทศที่สั่งแบนหรือจำกัดการเข้าถึงแล้วกว่า 24 ประเทศ จากทั้งหมด 172 ประเทศทั่วโลกที่มีการใช้งาน
ประเทศมหาอำนาจและกลุ่มประเทศที่สั่งแบนอย่างเด็ดขาด
ประเทศกลุ่มแรกที่สั่งปิดกั้น ChatGPT อย่างถาวรคือกลุ่มประเทศที่มีนโยบายควบคุมอินเทอร์เน็ตอย่างเข้มงวด โดยมีรายชื่อประเทศที่น่าสนใจดังนี้
- จีน: ปิดกั้นการเข้าถึงภายใต้กลยุทธ์ “Great Firewall” เพื่อควบคุมข้อมูลข่าวสารภายในประเทศ
- รัสเซีย: ยกระดับการควบคุมอินเทอร์เน็ตอย่างเข้มงวดนับตั้งแต่เกิดความขัดแย้งในยูเครน
- อิหร่าน, เกาหลีเหนือ, คิวบา และซีเรีย: กลุ่มประเทศที่มีปัญหากับรัฐบาลสหรัฐฯ และมีนโยบายปิดกั้นเทคโนโลยีจากต่างชาติ
- กลุ่มประเทศอื่นๆ: อัฟกานิสถาน, เยเมน, ซูดาน, ลิเบีย, ชาด, บุรุนดี, ซูดานใต้, สาธารณรัฐแอฟริกากลาง, สาธารณรัฐประชาธิปไตยคองโก, เอริเทรีย, เอสวาตินี และภูฏาน
รายงานข่าวระบุว่าสาเหตุหลักที่ประเทศเหล่านี้สั่งแบนคือความกังวลเรื่องการแทรกแซงทางการเมือง การควบคุมทิศทางของข้อมูล และความสัมพันธ์ที่ตึงเครียดกับสหรัฐอเมริกาซึ่งเป็นที่ตั้งของบริษัทผู้พัฒนา AI
ALEXANDER KAZAKOV / POOL / AFP
กลุ่มประเทศที่จำกัดการเข้าถึงและประเด็นความกังวลเรื่องความปลอดภัย
นอกจากการแบนอย่างเด็ดขาดแล้ว ยังมีบางประเทศที่ใช้มาตรการ “จำกัดการเข้าถึง” เช่น อียิปต์ เอธิโอเปีย เมียนมา เวเนซุเอลา โซมาเลีย และเบลารุส ซึ่งส่วนใหญ่เป็นประเทศที่เสรีภาพทางอินเทอร์เน็ตถูกจำกัดอยู่ก่อนแล้ว
อย่างไรก็ตาม ประเด็นที่ทำให้รัฐบาลทั่วโลกกังวลไม่ใช่แค่เรื่องการเมืองเพียงอย่างเดียว แต่ยังมีปัจจัยด้านความปลอดภัยของข้อมูล ดังนี้
- ข้อมูลที่ผิดพลาด: ปัญหา “AI Hallucination” หรือการที่ AI สร้างข้อมูลเท็จขึ้นมาอย่างมั่นใจ ซึ่งอาจสร้างความเสียหายต่อสังคม
- ความเป็นส่วนตัวของข้อมูล: การนำข้อมูลส่วนบุคคลของผู้ใช้ไปฝึกฝนโมเดล AI โดยไม่ได้รับอนุญาต
- ความลำเอียง: อคติที่อาจแฝงอยู่ในชุดข้อมูลที่ใช้ฝึกฝน AI ทำให้เกิดคำตอบที่ไม่เป็นกลาง
สำนักข่าว BBC เคยรายงานตัวอย่างความเสียหายจากข้อมูลที่ผิดพลาดของ AI ในช่วงต้นปี 2566 เมื่อ Bard ของ Google ให้ข้อมูลผิดเกี่ยวกับกล้องโทรทรรศน์อวกาศเจมส์ เว็บบ์ (JWST) ในระหว่างการสาธิต ส่งผลให้มูลค่าหุ้นของ Alphabet ลดลงถึง 1 แสนล้านดอลลาร์สหรัฐในพริบตา ความเสี่ยงเหล่านี้เองที่ทำให้หลายรัฐบาลยังคงระมัดระวังและเลือกที่จะปิดกั้นการเข้าถึงจนกว่าจะมีมาตรการควบคุมที่ชัดเจน
