ท่ามกลางการคัดค้านอย่างรุนแรงจากบรรดาผู้ทรงอิทธิพลในวงการ AI, บริษัทเทคโนโลยียักษ์ใหญ่, สตาร์ทอัพ และนักลงทุนเสี่ยงที่ไม่เห็นด้วยกับร่างกฎหมายจำกัด AI ของรัฐแคลิฟอร์เนีย ร่างกฎหมายนี้กลับผ่านขั้นตอนแรกไปได้อย่างเรียบร้อย
อย่างที่เราทราบกันดีว่า AI ในโลกแห่งความจริงยังไม่เคยทำร้ายใครหรือก่อให้เกิดการโจมตีทางไซเบอร์ขนาดใหญ่ อย่างไรก็ตาม ผู้ร่างกฎหมายในสหรัฐฯ บางคนก็ยังคงหวังว่าจะสามารถออกกฎหมายเพื่อความปลอดภัยก่อนที่อนาคตในแบบดิสโทเปียเช่นนี้จะเกิดขึ้นจริง
ในสัปดาห์นี้ ร่างกฎหมาย "นวัตกรรมความปลอดภัยของโมเดล AI ขั้นสูง" หรือ SB 1047 ของรัฐแคลิฟอร์เนีย ได้ก้าวไปอีกขั้นสำคัญเพื่อมุ่งสู่การเป็นกฎหมายอย่างเป็นทางการ
พูดง่าย ๆ ก็คือ SB 1047 จะบังคับให้ผู้พัฒนา AI ต้องรับผิดชอบเพื่อป้องกันไม่ให้ระบบ AI ก่อให้เกิดการสูญเสียชีวิตจำนวนมากหรือก่อให้เกิดความเสียหายทางไซเบอร์ที่มีมูลค่าเกิน 500 ล้านดอลลาร์ อย่างไรก็ตาม เนื่องจากการคัดค้านจากวงการวิชาการและอุตสาหกรรมอย่างรุนแรง ผู้ร่างกฎหมายของรัฐแคลิฟอร์เนียจึงได้ทำการประนีประนอมเล็กน้อย โดยได้เพิ่มข้อเสนอจากบริษัท AI สตาร์ทอัพอย่าง Anthropic และผู้คัดค้านรายอื่น ๆ เข้าไป ซึ่งเวอร์ชันปัจจุบันนี้ได้ลดอำนาจของรัฐบาลรัฐแคลิฟอร์เนียในการเรียกร้องความรับผิดชอบจากห้องปฏิบัติการ AI เมื่อเทียบกับข้อเสนอแรก
ลิงก์ร่างกฎหมาย: SB 1047 ลิงก์
ถึงกระนั้น (แทบจะ) ไม่มีใครชอบ SB 1047 เลย
Yann LeCun, Li Fei-Fei และ Andrew Ng เหล่าบรรดาผู้เชี่ยวชาญด้าน AI ได้แสดงความไม่พอใจต่อร่างกฎหมายที่พวกเขามองว่าเป็นการบ่อนทำลายการเปิดโอเพ่นซอร์ส AI และบังคับให้การพัฒนา AI ต้องหยุดชะงักหรือล่าช้า ข้อร้องเรียนและการลงนามในจดหมายเปิดผนึกก็เกิดขึ้นมากมาย ไม่เพียงแค่นักวิจัยกว่า 40 คนจากมหาวิทยาลัยแคลิฟอร์เนีย, มหาวิทยาลัยเซาเทิร์นแคลิฟอร์เนีย, มหาวิทยาลัยสแตนฟอร์ด และสถาบันเทคโนโลยีแคลิฟอร์เนียได้ออกมาร้องเรียนอย่างหนักไม่ให้ร่างกฎหมายนี้ผ่าน นอกจากนี้ สมาชิกสภาคองเกรส 8 คนที่เป็นตัวแทนของเขตต่าง ๆ ในรัฐแคลิฟอร์เนีย ก็ได้เรียกร้องให้ผู้ว่าการรัฐคัดค้านร่างกฎหมายนี้อีกด้วย LeCun ถึงกับใช้คำเดิมที่เคยใช้เรียกร้องให้หยุดการวิจัย AI ว่า "ได้โปรดหยุดการออกกฎหมาย AI เป็นเวลา 6 เดือน!"
แล้วทำไมถึงใช้คำว่า "แทบจะทุกคน"? นั่นก็เพราะว่า ยักษ์ใหญ่แห่งวงการเทคโนโลยีที่ได้รับรางวัลทัวริงอีกสองคน คือ Yoshua Bengio และ Geoffrey Hinton กลับสนับสนุนการผ่านร่างกฎหมายนี้อย่างแข็งขัน แถมยังมองว่าข้อกำหนดในปัจจุบันอาจจะผ่อนคลายเกินไปด้วยซ้ำ
ในตอนนี้ แม้ว่า SB 1047 จะถูกคัดค้านอย่างหนักจากสมาชิกสภาคองเกรสบางคน, นักวิจัย AI ที่มีชื่อเสียง, บริษัทเทคโนโลยีขนาดใหญ่ และนักลงทุนเสี่ยง แต่ในสภานิติบัญญัติของรัฐแคลิฟอร์เนีย ร่างกฎหมายนี้ก็ผ่านไปได้อย่างง่ายดาย
จากนี้ไป SB 1047 จะเข้าสู่การลงคะแนนเสียงครั้งสุดท้ายในสภานิติบัญญัติของรัฐแคลิฟอร์เนีย เนื่องจากมีการเพิ่มข้อแก้ไขล่าสุดเข้าไป หากร่างกฎหมายนี้ผ่านก็จะต้องถูกส่งกลับไปยังวุฒิสภาของรัฐแคลิฟอร์เนียเพื่อให้ลงคะแนนอีกครั้ง หากผ่านทั้งสองครั้ง ร่างกฎหมาย SB 1047 ก็จะถูกส่งไปยังผู้ว่าการรัฐเพื่อรอการอนุมัติหรือปฏิเสธอย่างเป็นทางการ
01 โมเดลและบริษัทใดบ้างที่จะถูกจำกัด?
ตามข้อกำหนดของ SB 1047 ผู้พัฒนาหรือบริษัทที่พัฒนาโมเดลต้องรับผิดชอบในการป้องกันไม่ให้โมเดล AI ของพวกเขาถูกนำไปใช้ก่อให้เกิด "อันตรายที่ร้ายแรง"
ตัวอย่างเช่น การสร้างอาวุธทำลายล้างขนาดใหญ่ หรือการโจมตีทางไซเบอร์ที่ก่อให้เกิดความเสียหายมากกว่า 500 ล้านดอลลาร์ อีกอย่างหนึ่ง กรณี "หน้าจอสีฟ้าแห่งความตาย" ของ CrowdStrike ก่อให้เกิดความเสียหายมากกว่า 5 พันล้านดอลลาร์
อย่างไรก็ตาม ข้อกำหนดของ SB 1047 จะใช้กับโมเดล AI ขนาดใหญ่ที่มีค่าใช้จ่ายในการฝึกอบรมอย่างน้อย 100 ล้านดอลลาร์และมีการคำนวณจุดลอยตัวมากกว่า 10^26 ครั้ง (ซึ่งพอ ๆ กับค่าใช้จ่ายในการฝึกอบรม GPT-4)
คาดว่า Llama 4 ของ Meta รุ่นต่อไปจะมีความต้องการคำนวณที่เพิ่มขึ้น 10 เท่า ซึ่งทำให้ตกอยู่ภายใต้การกำกับดูแลของ SB 1047 สำหรับโมเดลโอเพ่นซอร์สและเวอร์ชันที่ถูกปรับแต่ง ผู้พัฒนาต้นฉบับต้องรับผิดชอบ เว้นแต่จะมีการใช้จ่ายเกินสามเท่าของโมเดลต้นฉบับ ซึ่งอาจเป็นเหตุผลว่าทำไม LeCun ถึงแสดงความไม่พอใจอย่างรุนแรง
นอกจากนี้ ผู้พัฒนายังต้องสร้างโปรแกรมทดสอบเพื่อแก้ไขความเสี่ยงของโมเดล AI และต้องว่าจ้างผู้ตรวจสอบบัญชีจากบุคคลที่สามประเมินแนวปฏิบัติด้านความปลอดภัยของ AI ในทุก ๆ ปี สำหรับผลิตภัณฑ์ AI ที่สร้างขึ้นจากโมเดลนั้น จะต้องจัดทำโปรโตคอลความปลอดภัยเพื่อป้องกันการใช้งานในทางที่ผิด รวมถึงปุ่ม "หยุดฉุกเฉิน" เพื่อปิดโมเดล AI ทั้งหมดด้วย
02 ฟังก์ชันของ SB 1047 ในตอนนี้คืออะไร?
ปัจจุบัน SB 1047 ไม่อนุญาตให้รัฐอัยการสูงสุดของรัฐแคลิฟอร์เนียฟ้องร้องบริษัท AI เกี่ยวกับการละเลยมาตรการความปลอดภัยก่อนที่จะเกิดเหตุการณ์ภัยพิบัติ (ตามข้อเสนอจาก Anthropic) แทนที่จะเป็นเช่นนั้น รัฐอัยการสูงสุดสามารถร้องขอคำสั่งห้ามให้บริษัทหยุดการดำเนินการที่เห็นว่าเป็นอันตราย และหากโมเดลนั้นก่อให้เกิดเหตุการณ์ภัยพิบัติจริง ก็ยังสามารถฟ้องร้องผู้พัฒนา AI ได้
SB 1047 จะไม่จัดตั้งหน่วยงานของรัฐใหม่ที่เดิมมีอยู่ในร่างกฎหมาย "หน่วยงานโมเดลขั้นสูง" (FMD) อีกต่อไป
แต่ยังคงจัดตั้งคณะกรรมการโมเดลขั้นสูง ซึ่งเป็นหน่วยงานหลักของ FMD และจะอยู่ภายใต้สำนักงานบริหารของรัฐบาลที่มีอยู่ โดยเพิ่มขนาดจาก 5 คนเป็น 9 คน คณะกรรมการจะยังคงกำหนดเกณฑ์การคำนวณสำหรับโมเดลที่ครอบคลุม ออกแนวทางปฏิบัติด้านความปลอดภัย และออกข้อบังคับสำหรับผู้ตรวจสอบบัญชี
ในเรื่องการรักษาความปลอดภัยของโมเดล AI SB 1047 ยังใช้ภาษาที่ผ่อนปรนมากขึ้น ขณะนี้ผู้พัฒนาเพียงแค่ต้องใช้ "ความระมัดระวังตามสมควร" เพื่อให้มั่นใจว่าโมเดล AI จะไม่ก