ต่อไปนี้เป็นโพสต์ของแขกจาก Felix Xu ผู้ก่อตั้ง ARPA Network.
แนวทางของรัฐบาลสหรัฐฯ ต่อ (AI) ปัญญาประดิษฐ์ได้เปลี่ยนไปอย่างมากโดยเน้นที่นวัตกรรมที่เร่งขึ้นเหนือการกํากับดูแลด้านกฎระเบียบ โดยเฉพาะอย่างยิ่งคําสั่งบริหารของประธานาธิบดีโดนัลด์ทรัมป์ ** การขจัดอุปสรรคต่อความเป็นผู้นําอเมริกันในปัญญาประดิษฐ์ ** ได้กําหนดโทนใหม่สําหรับการพัฒนา AI ซึ่งมีรากฐานมาจากการส่งเสริมเสรีภาพในการพูดและความก้าวหน้าทางเทคโนโลยี ในทํานองเดียวกัน รองประธานาธิบดีสหรัฐฯ JD Vance ปฏิเสธที่จะรับรองข้อตกลงด้านความปลอดภัยของ AI ทั่วโลกเป็นการส่งสัญญาณว่าอเมริกาจะจัดลําดับความสําคัญของนวัตกรรมโดยไม่กระทบต่อความได้เปรียบในการแข่งขัน
อย่างไรก็ตาม เมื่อระบบ AI เริ่มมีอิทธิพลมากขึ้นในตลาดการเงิน โครงสร้างพื้นฐานที่สำคัญ และการสนทนาสาธารณะ คำถามยังคงอยู่: เราจะทำอย่างไรเพื่อให้มั่นใจในความไว้วางใจและความเชื่อถือได้ในผลลัพธ์และการตัดสินใจที่ขับเคลื่อนด้วยโมเดล AI โดยไม่ขัดขวางนวัตกรรม?
นี่คือจุดที่ Verifiable AI เข้ามา ซึ่งนำเสนอวิธีการที่โปร่งใสและปลอดภัยด้วยการเข้ารหัสสำหรับ AI ที่รับรองความรับผิดชอบโดยไม่ต้องมีการกำกับดูแลที่เข้มงวด
ความท้าทายของ AI โดยไม่มีความโปร่งใส
ความก้าวหน้าของ AI อย่างรวดเร็วได้นำพาเข้าสู่ยุคใหม่ของตัวแทน AI ที่ชาญฉลาดซึ่งสามารถตัดสินใจที่ซับซ้อนและเป็นอิสระได้ แต่หากไม่มีความโปร่งใส ระบบเหล่านี้อาจกลายเป็นสิ่งที่ไม่สามารถคาดการณ์ได้และไม่มีความรับผิดชอบ.
ตัวอย่างเช่น ตัวแทนทางการเงิน AI ซึ่งพึ่งพาโมเดลการเรียนรู้ของเครื่องที่ซับซ้อนเพื่อวิเคราะห์ชุดข้อมูลขนาดใหญ่ ขณะนี้กำลังดำเนินการภายใต้ข้อกำหนดการเปิดเผยข้อมูลที่น้อยลง แม้ว่าสิ่งนี้จะกระตุ้นนวัตกรรม แต่ก็ยังสร้างช่องว่างด้านความไว้วางใจ: โดยไม่มีข้อมูลเชิงลึกเกี่ยวกับวิธีที่ตัวแทน AI เหล่านี้มาถึงข้อสรุป บริษัทและผู้ใช้อาจประสบปัญหาในการตรวจสอบความถูกต้องและความน่าเชื่อถือของพวกเขา.
การล่มสลายของตลาดที่เกิดจากการตัดสินใจที่ผิดพลาดของโมเดล AI ไม่ใช่แค่ความเสี่ยงทางทฤษฎี แต่เป็นความเป็นไปได้หากมีการใช้งานโมเดล AI โดยไม่มีมาตรการป้องกันที่สามารถตรวจสอบได้ ความท้าทายไม่ใช่เรื่องของการชะลอความก้าวหน้าใน AI แต่เป็นการรับประกันว่าผลลัพธ์ของมันสามารถพิสูจน์ได้, ตรวจสอบได้, และเชื่อถือได้.
นักจิตวิทยาชื่อดังจากฮาร์วาร์ด B.F. Skinner เคยกล่าวไว้ว่า "ปัญหาที่แท้จริงไม่ใช่ว่าเครื่องจักรคิดได้หรือไม่ แต่เป็นว่ามนุษย์คิดได้หรือไม่" ใน AI ปัญหาหลักไม่ใช่แค่ความฉลาดของระบบเหล่านี้ แต่เป็นว่ามนุษย์สามารถตรวจสอบและไว้วางใจในความฉลาดของพวกเขาได้อย่างไร
วิธีที่ Verifiable AI เชื่อมช่องว่างความเชื่อถือ
Russel Wald, ผู้อำนวยการบริหารที่สถาบัน Stanford สำหรับปัญญาประดิษฐ์ที่มุ่งเน้นมนุษย์, สรุป วิธีการ AI ของสหรัฐอเมริกา:
นี่คือเหตุผลที่ AI ที่สามารถตรวจสอบได้มีความสำคัญ มันช่วยให้เกิดนวัตกรรม AI โดยไม่ทำให้ความไว้วางใจลดลง โดยมั่นใจว่าผลลัพธ์ของ AI สามารถตรวจสอบได้ในลักษณะที่กระจายและรักษาความเป็นส่วนตัวได้
Verifiable AI ใช้เทคนิคการเข้ารหัสเช่น Zero-Knowledge Proofs (ZKPs) และ Zero-Knowledge Machine Learning (ZKML) เพื่อให้ผู้ใช้มั่นใจในการตัดสินใจของ AI โดยไม่เปิดเผยข้อมูลที่เป็นกรรมสิทธิ์.
ZKPs ช่วยให้ระบบ AI สามารถสร้างหลักฐานทางการเข้ารหัสที่ยืนยันว่าผลลัพธ์นั้นถูกต้องโดยไม่เปิดเผยข้อมูลหรือกระบวนการที่อยู่เบื้องหลัง ซึ่งช่วยให้มั่นใจในความถูกต้องแม้ในสภาพแวดล้อมที่มีการควบคุมน้อย.
ZKML นำเสนอโมเดล AI ที่ตรวจสอบได้บนบล็อกเชน ทำให้สามารถสร้างผลลัพธ์ AI ที่ไม่มีความเชื่อถือได้ซึ่งสามารถพิสูจน์ได้ทางคณิตศาสตร์ สิ่งนี้มีความสำคัญโดยเฉพาะสำหรับ AI oracles และการตัดสินใจที่ขับเคลื่อนด้วยข้อมูลในอุตสาหกรรมต่างๆ เช่น การเงิน การดูแลสุขภาพ และการบริหารจัดการ.
ZK-SNARKs แปลงการคำนวณ AI ให้เป็นหลักฐานที่ตรวจสอบได้ ทำให้มั่นใจว่าโมเดล AI ทำงานได้อย่างปลอดภัยในขณะที่ปกป้องสิทธิในทรัพย์สินทางปัญญาและความเป็นส่วนตัวของผู้ใช้.
โดยสรุปแล้ว Verifiable AI ให้ชั้นการตรวจสอบที่เป็นอิสระ ซึ่งทำให้ระบบ AI ยังคงโปร่งใส มีความรับผิดชอบ และมีความแม่นยำที่อาจเกิดขึ้นได้
AI ที่ตรวจสอบได้: อนาคตของความรับผิดชอบของ AI
ทิศทาง AI ของอเมริกากำหนดไว้สำหรับ นวัตกรรมที่ก้าวร้าว แต่แทนที่จะพึ่งพาการควบคุมของรัฐบาลเพียงอย่างเดียว อุตสาหกรรมต้องสนับสนุนโซลูชันทางเทคโนโลยีที่รับประกันทั้งความก้าวหน้าและความไว้วางใจ.
บางบริษัทอาจใช้ประโยชน์จากกฎระเบียบ AI ที่ผ่อนคลายมากขึ้นเพื่อเปิดตัวผลิตภัณฑ์โดยไม่มีการตรวจสอบความปลอดภัยที่เพียงพอ อย่างไรก็ตาม Verifiable AI เสนอตัวเลือกที่ทรงพลังที่ช่วยให้องค์กรและบุคคลสามารถสร้างระบบ AI ที่สามารถพิสูจน์ได้ เชื่อถือได้ และต้านทานการใช้ในทางที่ผิดได้.
ในโลกที่ AI กำลังตัดสินใจที่มีผลกระทบมากขึ้นเรื่อย ๆ วิธีแก้ปัญหาไม่ใช่การชะลอความก้าวหน้า แต่คือการทำให้ AI สามารถตรวจสอบได้ นั่นคือกุญแจสำคัญในการทำให้ AI ยังคงเป็นพลังแห่งนวัตกรรม ความไว้วางใจ และผลกระทบระดับโลกในระยะยาว.
AI ที่สามารถตรวจสอบได้: กุญแจสำคัญในการสร้างสมดุลระหว่างนวัตกรรมและความไว้วางใจในนโยบาย AI
ต่อไปนี้เป็นโพสต์ของแขกจาก Felix Xu ผู้ก่อตั้ง ARPA Network.
แนวทางของรัฐบาลสหรัฐฯ ต่อ (AI) ปัญญาประดิษฐ์ได้เปลี่ยนไปอย่างมากโดยเน้นที่นวัตกรรมที่เร่งขึ้นเหนือการกํากับดูแลด้านกฎระเบียบ โดยเฉพาะอย่างยิ่งคําสั่งบริหารของประธานาธิบดีโดนัลด์ทรัมป์ ** การขจัดอุปสรรคต่อความเป็นผู้นําอเมริกันในปัญญาประดิษฐ์ ** ได้กําหนดโทนใหม่สําหรับการพัฒนา AI ซึ่งมีรากฐานมาจากการส่งเสริมเสรีภาพในการพูดและความก้าวหน้าทางเทคโนโลยี ในทํานองเดียวกัน รองประธานาธิบดีสหรัฐฯ JD Vance ปฏิเสธที่จะรับรองข้อตกลงด้านความปลอดภัยของ AI ทั่วโลกเป็นการส่งสัญญาณว่าอเมริกาจะจัดลําดับความสําคัญของนวัตกรรมโดยไม่กระทบต่อความได้เปรียบในการแข่งขัน
อย่างไรก็ตาม เมื่อระบบ AI เริ่มมีอิทธิพลมากขึ้นในตลาดการเงิน โครงสร้างพื้นฐานที่สำคัญ และการสนทนาสาธารณะ คำถามยังคงอยู่: เราจะทำอย่างไรเพื่อให้มั่นใจในความไว้วางใจและความเชื่อถือได้ในผลลัพธ์และการตัดสินใจที่ขับเคลื่อนด้วยโมเดล AI โดยไม่ขัดขวางนวัตกรรม?
นี่คือจุดที่ Verifiable AI เข้ามา ซึ่งนำเสนอวิธีการที่โปร่งใสและปลอดภัยด้วยการเข้ารหัสสำหรับ AI ที่รับรองความรับผิดชอบโดยไม่ต้องมีการกำกับดูแลที่เข้มงวด
ความท้าทายของ AI โดยไม่มีความโปร่งใส
ความก้าวหน้าของ AI อย่างรวดเร็วได้นำพาเข้าสู่ยุคใหม่ของตัวแทน AI ที่ชาญฉลาดซึ่งสามารถตัดสินใจที่ซับซ้อนและเป็นอิสระได้ แต่หากไม่มีความโปร่งใส ระบบเหล่านี้อาจกลายเป็นสิ่งที่ไม่สามารถคาดการณ์ได้และไม่มีความรับผิดชอบ.
ตัวอย่างเช่น ตัวแทนทางการเงิน AI ซึ่งพึ่งพาโมเดลการเรียนรู้ของเครื่องที่ซับซ้อนเพื่อวิเคราะห์ชุดข้อมูลขนาดใหญ่ ขณะนี้กำลังดำเนินการภายใต้ข้อกำหนดการเปิดเผยข้อมูลที่น้อยลง แม้ว่าสิ่งนี้จะกระตุ้นนวัตกรรม แต่ก็ยังสร้างช่องว่างด้านความไว้วางใจ: โดยไม่มีข้อมูลเชิงลึกเกี่ยวกับวิธีที่ตัวแทน AI เหล่านี้มาถึงข้อสรุป บริษัทและผู้ใช้อาจประสบปัญหาในการตรวจสอบความถูกต้องและความน่าเชื่อถือของพวกเขา.
การล่มสลายของตลาดที่เกิดจากการตัดสินใจที่ผิดพลาดของโมเดล AI ไม่ใช่แค่ความเสี่ยงทางทฤษฎี แต่เป็นความเป็นไปได้หากมีการใช้งานโมเดล AI โดยไม่มีมาตรการป้องกันที่สามารถตรวจสอบได้ ความท้าทายไม่ใช่เรื่องของการชะลอความก้าวหน้าใน AI แต่เป็นการรับประกันว่าผลลัพธ์ของมันสามารถพิสูจน์ได้, ตรวจสอบได้, และเชื่อถือได้.
นักจิตวิทยาชื่อดังจากฮาร์วาร์ด B.F. Skinner เคยกล่าวไว้ว่า "ปัญหาที่แท้จริงไม่ใช่ว่าเครื่องจักรคิดได้หรือไม่ แต่เป็นว่ามนุษย์คิดได้หรือไม่" ใน AI ปัญหาหลักไม่ใช่แค่ความฉลาดของระบบเหล่านี้ แต่เป็นว่ามนุษย์สามารถตรวจสอบและไว้วางใจในความฉลาดของพวกเขาได้อย่างไร
วิธีที่ Verifiable AI เชื่อมช่องว่างความเชื่อถือ
Russel Wald, ผู้อำนวยการบริหารที่สถาบัน Stanford สำหรับปัญญาประดิษฐ์ที่มุ่งเน้นมนุษย์, สรุป วิธีการ AI ของสหรัฐอเมริกา:
นี่คือเหตุผลที่ AI ที่สามารถตรวจสอบได้มีความสำคัญ มันช่วยให้เกิดนวัตกรรม AI โดยไม่ทำให้ความไว้วางใจลดลง โดยมั่นใจว่าผลลัพธ์ของ AI สามารถตรวจสอบได้ในลักษณะที่กระจายและรักษาความเป็นส่วนตัวได้
Verifiable AI ใช้เทคนิคการเข้ารหัสเช่น Zero-Knowledge Proofs (ZKPs) และ Zero-Knowledge Machine Learning (ZKML) เพื่อให้ผู้ใช้มั่นใจในการตัดสินใจของ AI โดยไม่เปิดเผยข้อมูลที่เป็นกรรมสิทธิ์.
โดยสรุปแล้ว Verifiable AI ให้ชั้นการตรวจสอบที่เป็นอิสระ ซึ่งทำให้ระบบ AI ยังคงโปร่งใส มีความรับผิดชอบ และมีความแม่นยำที่อาจเกิดขึ้นได้
AI ที่ตรวจสอบได้: อนาคตของความรับผิดชอบของ AI
ทิศทาง AI ของอเมริกากำหนดไว้สำหรับ นวัตกรรมที่ก้าวร้าว แต่แทนที่จะพึ่งพาการควบคุมของรัฐบาลเพียงอย่างเดียว อุตสาหกรรมต้องสนับสนุนโซลูชันทางเทคโนโลยีที่รับประกันทั้งความก้าวหน้าและความไว้วางใจ.
บางบริษัทอาจใช้ประโยชน์จากกฎระเบียบ AI ที่ผ่อนคลายมากขึ้นเพื่อเปิดตัวผลิตภัณฑ์โดยไม่มีการตรวจสอบความปลอดภัยที่เพียงพอ อย่างไรก็ตาม Verifiable AI เสนอตัวเลือกที่ทรงพลังที่ช่วยให้องค์กรและบุคคลสามารถสร้างระบบ AI ที่สามารถพิสูจน์ได้ เชื่อถือได้ และต้านทานการใช้ในทางที่ผิดได้.
ในโลกที่ AI กำลังตัดสินใจที่มีผลกระทบมากขึ้นเรื่อย ๆ วิธีแก้ปัญหาไม่ใช่การชะลอความก้าวหน้า แต่คือการทำให้ AI สามารถตรวจสอบได้ นั่นคือกุญแจสำคัญในการทำให้ AI ยังคงเป็นพลังแห่งนวัตกรรม ความไว้วางใจ และผลกระทบระดับโลกในระยะยาว.
กล่าวถึงในบทความนี้