สตาร์ทอัพ AI จีนเซ็นเซอร์ภาพการเมือง

สตาร์ทอัพจีนชื่อ Sand AI ดูเหมือนจะใช้มาตรการในการบล็อกภาพที่มีความอ่อนไหวทางการเมืองบางภาพจากเครื่องมือสร้างวิดีโอออนไลน์ การสังเกตนี้มาจากการทดสอบโดย TechCrunch ซึ่งบ่งชี้ว่าบริษัทกำลังเซ็นเซอร์โมเดลที่โฮสต์ไว้เพื่อป้องกันภาพที่อาจยั่วยุหน่วยงานกำกับดูแลของจีน

Sand AI เพิ่งเปิดตัว Magi-1 ซึ่งเป็นโมเดล AI สร้างวิดีโอที่ได้รับอนุญาตแบบเปิด โมเดลนี้ได้รับการยกย่องจากบุคคลสำคัญ เช่น Kai-Fu Lee ผู้อำนวยการผู้ก่อตั้งของ Microsoft Research Asia โดยเน้นถึงศักยภาพและนวัตกรรมในสาขานี้ Magi-1 ทำงานโดยการทำนายลำดับเฟรม “autoregressively” เพื่อสร้างวิดีโอ Sand AI ยืนยันว่า Magi-1 สามารถสร้างฟุตเทจคุณภาพสูงที่ควบคุมได้ ซึ่งจับภาพฟิสิกส์ได้อย่างแม่นยำ เหนือกว่าโมเดลโอเพนอื่นๆ ในตลาด

ข้อกำหนดทางเทคนิคและการเข้าถึง Magi-1

การใช้งานจริงของ Magi-1 ถูกจำกัดด้วยข้อกำหนดด้านฮาร์ดแวร์ที่สูง โมเดลนี้มีพารามิเตอร์ 24 พันล้านรายการ และต้องการ GPU Nvidia H100 จำนวน 4 ถึง 8 ตัวเพื่อให้ทำงานได้ นี่ทำให้แพลตฟอร์มของ Sand AI เป็นสถานที่หลัก และบ่อยครั้งเป็นสถานที่เดียวที่ผู้ใช้จำนวนมากสามารถทดสอบความสามารถของ Magi-1 ได้

กระบวนการสร้างวิดีโอบนแพลตฟอร์มเริ่มต้นด้วยภาพ “prompt” อย่างไรก็ตาม ไม่ใช่ทุกภาพที่ได้รับการยอมรับ การตรวจสอบของ TechCrunch เผยให้เห็นว่าระบบของ Sand AI บล็อกการอัปโหลดภาพที่แสดงถึง Xi Jinping, จัตุรัสเทียนอันเหมิน และเหตุการณ์ “Tank Man”, ธงชาติไต้หวัน และสัญลักษณ์ที่เกี่ยวข้องกับการเคลื่อนไหวเพื่อปลดปล่อยฮ่องกง ระบบการกรองนี้ดูเหมือนจะทำงานในระดับภาพ เนื่องจากการเปลี่ยนชื่อไฟล์ภาพเพียงอย่างเดียวไม่ได้หลีกเลี่ยงข้อจำกัด

เปรียบเทียบกับแพลตฟอร์ม AI จีนอื่นๆ

Sand AI ไม่ใช่สตาร์ทอัพจีนรายเดียวที่จำกัดการอัปโหลดภาพที่มีความอ่อนไหวทางการเมืองไปยังเครื่องมือสร้างวิดีโอ Hailuo AI ซึ่งเป็นแพลตฟอร์มสื่อสร้างสรรค์ของ MiniMax ที่อยู่ในเซี่ยงไฮ้ ก็บล็อกภาพของ Xi Jinping ด้วย อย่างไรก็ตาม กลไกการกรองของ Sand AI ดูเหมือนจะเข้มงวดกว่า ตัวอย่างเช่น Hailuo AI อนุญาตภาพของจัตุรัสเทียนอันเหมิน ซึ่ง Sand AI ไม่อนุญาต

ความจำเป็นในการควบคุมที่เข้มงวดเหล่านี้มีรากฐานมาจากข้อบังคับของจีน ตามที่ Wired รายงานในเดือนมกราคม โมเดล AI ในจีนได้รับมอบหมายให้ปฏิบัติตามการควบคุมข้อมูลที่เข้มงวด กฎหมายปี 2023 ห้ามไม่ให้โมเดล AI สร้างเนื้อหาที่ “ทำลายความสามัคคีของประเทศและความปรองดองทางสังคม” อย่างชัดเจน คำจำกัดความที่กว้างนี้สามารถครอบคลุมเนื้อหาใดๆ ที่ขัดแย้งกับเรื่องราวทางประวัติศาสตร์และการเมืองของรัฐบาล เพื่อให้เป็นไปตามข้อบังคับเหล่านี้ สตาร์ทอัพจีนมักจะใช้ตัวกรองระดับ prompt หรือปรับแต่งโมเดลของตนเพื่อเซ็นเซอร์เนื้อหาที่อาจเป็นปัญหา

วิธีการเซ็นเซอร์ที่แตกต่างกัน: เนื้อหาทางการเมืองเทียบกับเนื้อหาลามกอนาจาร

สิ่งที่น่าสนใจคือ ในขณะที่โมเดล AI ของจีนมักจะถูกเซ็นเซอร์อย่างหนักเกี่ยวกับการพูดทางการเมือง แต่บางครั้งพวกเขาก็มีข้อจำกัดน้อยกว่าเกี่ยวกับเนื้อหาลามกอนาจารเมื่อเทียบกับคู่หูชาวอเมริกันของพวกเขา รายงานล่าสุดโดย 404 บ่งชี้ว่าเครื่องกำเนิดวิดีโอจำนวนมากจากบริษัทจีนขาดการป้องกันพื้นฐานเพื่อป้องกันการสร้างภาพเปลือยที่ไม่ได้รับความยินยอม

การกระทำของ Sand AI และบริษัทเทคโนโลยีจีนอื่นๆ ตอกย้ำถึงปฏิสัมพันธ์ที่ซับซ้อนระหว่างนวัตกรรมทางเทคโนโลยี การควบคุมทางการเมือง และการพิจารณาด้านจริยธรรมในภาค AI ในขณะที่เทคโนโลยี AI ยังคงพัฒนาต่อไป การอภิปรายเกี่ยวกับการเซ็นเซอร์ เสรีภาพในการแสดงออก และความรับผิดชอบของผู้พัฒนา AI จะทวีความรุนแรงขึ้นอย่างไม่ต้องสงสัย

เจาะลึกด้านเทคนิคของ Magi-1

Magi-1 แสดงถึงความก้าวหน้าที่สำคัญในเทคโนโลยีการสร้างวิดีโอ โดยหลักๆ แล้วเป็นเพราะแนวทาง autoregressive วิธีการนี้เกี่ยวข้องกับการทำนายลำดับเฟรมของโมเดล ซึ่งช่วยให้ได้ผลลัพธ์วิดีโอที่ละเอียดอ่อนและสอดคล้องกันมากขึ้น การอ้างว่า Magi-1 สามารถจับภาพฟิสิกส์ได้อย่างแม่นยำมากกว่าโมเดลโอเพนคู่แข่งเป็นสิ่งที่น่าสังเกตเป็นพิเศษ บ่งชี้ว่าโมเดลสามารถสร้างวิดีโอที่มีการเคลื่อนไหวและการโต้ตอบที่สมจริง ทำให้เป็นเครื่องมือที่มีค่าสำหรับแอปพลิเคชันต่างๆ รวมถึงความบันเทิง การศึกษา และการสร้างภาพทางวิทยาศาสตร์

ความสามารถที่น่าประทับใจของโมเดลยังสะท้อนให้เห็นในขนาดและข้อกำหนดด้านฮาร์ดแวร์ ด้วยพารามิเตอร์ 24 พันล้านรายการ Magi-1 เป็นโมเดลที่ซับซ้อนและต้องใช้การคำนวณมาก ความจำเป็นสำหรับ GPU ระดับไฮเอนด์หลายตัว เช่น Nvidia H100s ตอกย้ำถึงทรัพยากรจำนวนมากที่จำเป็นในการเรียกใช้ได้อย่างมีประสิทธิภาพ ข้อจำกัดนี้หมายความว่าในขณะที่ Magi-1 เป็นโมเดลโอเพนซอร์ส การเข้าถึงของผู้ใช้แต่ละรายและองค์กรขนาดเล็กจะถูกจำกัด ดังนั้นแพลตฟอร์มของ Sand AI จึงทำหน้าที่เป็นประตูสู่การสัมผัสและทดลองกับเทคโนโลยีล้ำสมัยนี้สำหรับหลายๆ คน

ผลกระทบของการเซ็นเซอร์ต่อการพัฒนา AI

แนวทางการเซ็นเซอร์ที่ดำเนินการโดย Sand AI และบริษัท AI จีนอื่นๆ ก่อให้เกิดคำถามสำคัญเกี่ยวกับการพัฒนา AI ในอนาคตและผลกระทบต่อสังคม ในขณะที่ความจำเป็นในการปฏิบัติตามกฎระเบียบท้องถิ่นเป็นสิ่งที่เข้าใจได้ การกระทำของการเซ็นเซอร์เนื้อหาที่มีความอ่อนไหวทางการเมืองอาจมีผลกระทบที่กว้างขวาง

ประการแรก อาจขัดขวางนวัตกรรมโดยจำกัดขอบเขตของสิ่งที่โมเดล AI สามารถสร้างได้ เมื่อนักพัฒนาถูกบังคับให้หลีกเลี่ยงหัวข้อหรือมุมมองบางอย่าง อาจขัดขวางความสามารถในการสำรวจแนวคิดใหม่ๆ และผลักดันขอบเขตของสิ่งที่เป็นไปได้ด้วย AI ท้ายที่สุดแล้ว สิ่งนี้สามารถชะลอความคืบหน้าของเทคโนโลยี AI และจำกัดประโยชน์ที่เป็นไปได้

ประการที่สอง การเซ็นเซอร์สามารถบ่อนทำลายความไว้วางใจในระบบ AI เมื่อผู้ใช้ทราบว่าโมเดล AI ถูกจัดการเพื่อให้สอดคล้องกับวาระทางการเมืองบางอย่าง พวกเขาอาจมีแนวโน้มน้อยที่จะไว้วางใจผลลัพธ์หรือพึ่งพาเพื่อรับข้อมูล สิ่งนี้สามารถนำไปสู่ความสงสัยและความไม่ไว้วางใจ ซึ่งสามารถบ่อนทำลายการยอมรับและการยอมรับเทคโนโลยี AI ในสังคม

ประการที่สาม การเซ็นเซอร์สามารถสร้างมุมมองที่เป็นบิดเบือนของความเป็นจริง โดยการกรองข้อมูลและมุมมองอย่างเลือกสรร โมเดล AI สามารถนำเสนอภาพที่ไม่ถูกต้องหรือไม่สมบูรณ์ของโลก สิ่งนี้อาจมีผลกระทบอย่างมากต่อความคิดเห็นของสาธารณชน และสามารถใช้เพื่อจัดการความเชื่อและพฤติกรรมของผู้คนได้

บริบทที่กว้างขึ้น: กฎระเบียบ AI ในจีน

สภาพแวดล้อมด้านกฎระเบียบในจีนมีบทบาทสำคัญในการกำหนดการพัฒนาและการใช้งานเทคโนโลยี AI กฎหมายปี 2023 ที่ห้ามโมเดล AI สร้างเนื้อหาที่ “ทำลายความสามัคคีของประเทศและความปรองดองทางสังคม” เป็นเพียงตัวอย่างหนึ่งของความพยายามของรัฐบาลในการควบคุมการไหลเวียนของข้อมูลและรักษาเสถียรภาพทางสังคม

กฎระเบียบเหล่านี้มีผลกระทบอย่างมากต่อบริษัท AI ที่ดำเนินงานในจีน พวกเขาต้องนำทางข้อกำหนดที่ซับซ้อนและคลุมเครืออย่างระมัดระวังเพื่อหลีกเลี่ยงการละเมิดกฎหมาย นี่อาจเป็นงานที่ท้าทาย เนื่องจากคำจำกัดความของสิ่งที่เป็นเนื้อหาที่ “สร้างความเสียหาย” หรือ “เป็นอันตราย” มักจะเปิดให้ตีความ

นอกจากนี้ กฎระเบียบยังสามารถสร้างผลกระทบที่น่าหวาดกลัวต่อนวัตกรรม นักพัฒนา AI อาจลังเลที่จะสำรวจหัวข้อบางอย่างหรือทดลองกับแนวคิดใหม่ๆ เพราะกลัวว่าจะดึงดูดความสนใจที่ไม่พึงประสงค์จากทางการ สิ่งนี้สามารถขัดขวางความคิดสร้างสรรค์และจำกัดศักยภาพของเทคโนโลยี AI ในการแก้ไขปัญหาที่กดดันที่สุดของโลก

ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของการเซ็นเซอร์ AI

แนวทางการเซ็นเซอร์ AI ก่อให้เกิดภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมหลายประการ หนึ่งในสิ่งที่กดดันที่สุดคือคำถามที่ว่าใครควรตัดสินใจว่าเนื้อหาใดเป็นที่ยอมรับได้และเนื้อหาใดไม่เป็นเช่นนั้น ในกรณีของจีน รัฐบาลได้มีบทบาทนำในการกำหนดมาตรฐานเหล่านี้ อย่างไรก็ตาม สิ่งนี้ก่อให้เกิดความกังวลเกี่ยวกับศักยภาพสำหรับอคติทางการเมืองและการปราบปรามเสียงที่ไม่เห็นด้วย

ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมอีกประการหนึ่งคือคำถามเกี่ยวกับความโปร่งใส บริษัท AI ควรมีความโปร่งใสเกี่ยวกับแนวทางการเซ็นเซอร์หรือไม่ พวกเขาควรเปิดเผยเกณฑ์ที่ใช้ในการกรองเนื้อหาและเหตุผลในการตัดสินใจหรือไม่ ความโปร่งใสเป็นสิ่งจำเป็นสำหรับการสร้างความไว้วางใจและรับรองว่าระบบ AI ถูกนำไปใช้อย่างมีความรับผิดชอบ อย่างไรก็ตาม การนำไปปฏิบัติจริงอาจเป็นเรื่องท้าทาย เนื่องจากอาจต้องให้บริษัทเปิดเผยข้อมูลที่ละเอียดอ่อนเกี่ยวกับอัลกอริทึมและข้อมูล

ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมเพิ่มเติมคือคำถามเกี่ยวกับความรับผิดชอบ ใครควรรับผิดชอบเมื่อระบบ AI ทำผิดพลาดหรือก่อให้เกิดอันตราย ควรเป็นนักพัฒนา ผู้ปฏิบัติงาน หรือผู้ใช้ การกำหนดสายความรับผิดชอบที่ชัดเจนเป็นสิ่งจำเป็นเพื่อให้แน่ใจว่าระบบ AI ถูกนำไปใช้อย่างมีจริยธรรมและมีความรับผิดชอบ

อนาคตของ AI และการเซ็นเซอร์

ในขณะที่เทคโนโลยี AI ยังคงก้าวหน้าต่อไป การอภิปรายเกี่ยวกับการเซ็นเซอร์มีแนวโน้มที่จะทวีความรุนแรงขึ้น ความตึงเครียดระหว่างความปรารถนาที่จะควบคุมข้อมูลและความจำเป็นในการส่งเสริม นวัตกรรมจะยังคงกำหนดการพัฒนาและการใช้งานระบบ AI

อนาคตที่เป็นไปได้อย่างหนึ่งคือโลกที่ระบบ AI ถูกเซ็นเซอร์และควบคุมโดยรัฐบาลอย่างหนัก ในสถานการณ์นี้ เทคโนโลยี AI ถูกใช้เพื่อเสริมสร้างโครงสร้างอำนาจที่มีอยู่และปราบปรามความขัดแย้ง สิ่งนี้อาจนำไปสู่การขัดขวางนวัตกรรมและการลดลงของเสรีภาพส่วนบุคคล

อนาคตที่เป็นไปได้อีกอย่างหนึ่งคือโลกที่ระบบ AI เปิดกว้างและโปร่งใสมากขึ้น ในสถานการณ์นี้ เทคโนโลยี AI ถูกใช้เพื่อเสริมสร้างศักยภาพของบุคคลและส่งเสริมประชาธิปไตย สิ่งนี้อาจนำไปสู่ความเจริญรุ่งเรืองของความคิดสร้างสรรค์และนวัตกรรม รวมถึงความรู้สึกไว้วางใจและความรับผิดชอบที่มากขึ้น

อนาคตของ AI และการเซ็นเซอร์จะขึ้นอยู่กับการเลือกที่เราทำในวันนี้ เป็นสิ่งสำคัญที่จะต้องมีส่วนร่วมในการอภิปรายที่รอบคอบและมีข้อมูลเกี่ยวกับผลกระทบทางจริยธรรม สังคม และการเมืองของเทคโนโลยี AI ด้วยการทำงานร่วมกัน เราสามารถรับรองได้ว่า AI ถูกใช้เพื่อสร้างโลกที่ยุติธรรมและเท่าเทียมกันมากขึ้น

การนำทางความซับซ้อนของการควบคุมเนื้อหา AI

กรณีของ Sand AI เน้นถึงความท้าทายที่ซับซ้อนเกี่ยวกับการควบคุมเนื้อหา AI โดยเฉพาะอย่างยิ่งในบริบทที่มีการควบคุมทางการเมืองและสังคมที่เข้มงวด ความสมดุลระหว่างการส่งเสริมนวัตกรรม การปฏิบัติตามข้อกำหนดด้านกฎระเบียบ และการรักษาหลักการทางจริยธรรมเป็นเรื่องที่ละเอียดอ่อน ในขณะที่ AI ยังคงแทรกซึมอยู่ในแง่มุมต่างๆ ของชีวิตเรา การอภิปรายเกี่ยวกับการควบคุมต้องมีหลายแง่มุม ครอบคลุมถึงข้อพิจารณาทางกฎหมาย จริยธรรม และทางเทคนิค

รัฐบาลทั่วโลกกำลังต่อสู้กับงานในการจัดตั้งกรอบการทำงานที่เหมาะสมสำหรับการกำกับดูแล AI กรอบการทำงานเหล่านี้มีจุดมุ่งหมายเพื่อแก้ไขข้อกังวลต่างๆ เช่น อคติ ความเป็นส่วนตัว ความปลอดภัย และความรับผิดชอบ อย่างไรก็ตาม ความเร็วในการพัฒนา AI ทำให้การปรับปรุงกฎระเบียบให้ทันสมัยและเกี่ยวข้องอยู่เสมอเป็นเรื่องท้าทาย

นอกจากนี้ ลักษณะที่เป็นสากลของ AI ยังนำเสนอความซับซ้อนเพิ่มเติม ประเทศต่างๆ มีค่านิยมและลำดับความสำคัญที่แตกต่างกัน ซึ่งอาจนำไปสู่กฎระเบียบและมาตรฐานที่ขัดแย้งกัน สิ่งนี้สร้างความท้าทายสำหรับบริษัท AI ที่ดำเนินงานข้ามพรมแดน เนื่องจากพวกเขาต้องนำทางเว็บข้อกำหนดทางกฎหมายและจริยธรรมที่ซับซ้อน

บทบาทของผู้พัฒนา AI ในการกำหนดอนาคต

ผู้พัฒนา AI มีบทบาทสำคัญในการกำหนดอนาคตของ AI พวกเขาเป็นผู้ที่ออกแบบและสร้างระบบ AI และพวกเขามีความรับผิดชอบในการรับรองว่าระบบเหล่านี้ถูกนำไปใช้อย่างมีจริยธรรมและมีความรับผิดชอบ

ซึ่งรวมถึงการคำนึงถึงศักยภาพสำหรับอคติในอัลกอริทึม AI และดำเนินการเพื่อลดผลกระทบ นอกจากนี้ยังรวมถึงความโปร่งใสเกี่ยวกับวิธีการทำงานของระบบ AI และให้คำอธิบายที่ชัดเจนแก่ผู้ใช้เกี่ยวกับการตัดสินใจของพวกเขา

นอกจากนี้ ผู้พัฒนา AI ควรมีส่วนร่วมอย่างแข็งขันในการอภิปรายเกี่ยวกับการควบคุม AI พวกเขามีข้อมูลเชิงลึกและความเชี่ยวชาญที่มีค่าซึ่งสามารถช่วยให้ผู้กำหนดนโยบายทำการตัดสินใจโดยมีข้อมูลครบถ้วน

ด้วยการทำงานร่วมกัน ผู้พัฒนา AI ผู้กำหนดนโยบาย และสาธารณชนสามารถรับรองได้ว่า AI ถูกใช้เพื่อสร้างอนาคตที่ดีกว่าสำหรับทุกคน

สรุป

เรื่องราวของ Sand AI และแนวทางการเซ็นเซอร์ทำหน้าที่เป็นเครื่องเตือนใจถึงความท้าทายที่ซับซ้อนและข้อพิจารณาด้านจริยธรรมที่เกิดขึ้นในการพัฒนาและการใช้งานเทคโนโลยี AI ในขณะที่ AI ยังคงพัฒนาต่อไป สิ่งสำคัญคือต้องมีส่วนร่วมในการอภิปรายที่เปิดเผยและตรงไปตรงมาเกี่ยวกับผลประโยชน์และความเสี่ยงที่อาจเกิดขึ้น ด้วยการทำงานร่วมกัน เราสามารถรับรองได้ว่า AI ถูกใช้เพื่อสร้างโลกที่ยุติธรรม เท่าเทียม และเจริญรุ่งเรืองมากขึ้น