
แฮ็กเกอร์ระดับโลก “ทีมสีแดง” และรางวัลสำหรับการไล่ล่าอคติอัลกอริธึมเป็นเพียงคำแนะนำบางส่วนจากผู้เชี่ยวชาญที่โต้แย้งว่า AI เผชิญกับ “การฟาดฟันทางเทคโนโลยี” เว้นแต่จะมีมาตรการที่แน่วแน่เพื่อเพิ่มความไว้วางใจสาธารณะ
อุตสาหกรรมปัญญาประดิษฐ์ควรสร้างชุมชนแฮ็กเกอร์ระดับโลกและ “ผู้สร้างแบบจำลองภัยคุกคาม” ที่อุทิศตนเพื่อทดสอบศักยภาพที่เป็นอันตรายของผลิตภัณฑ์ AI ใหม่ เพื่อให้ได้รับความไว้วางใจจากรัฐบาลและสาธารณชนก่อนที่จะสายเกินไป
นี่เป็นหนึ่งในคำแนะนำโดยทีมผู้เชี่ยวชาญด้านความเสี่ยงและแมชชีนเลิร์นนิงระดับนานาชาติ นำโดยนักวิจัยจากศูนย์การศึกษาความเสี่ยงในการดำรงอยู่ของมหาวิทยาลัยเคมบริดจ์ (CSER) ซึ่งได้เขียน “คำกระตุ้นการตัดสินใจ” ใหม่ที่เผยแพร่ ใน วารสาร วิทยาศาสตร์ .
พวกเขากล่าวว่าบริษัทที่สร้างเทคโนโลยีอัจฉริยะควรใช้เทคนิคต่างๆ เช่น การแฮ็ก “ทีมสีแดง” เส้นทางการตรวจสอบ และ “รางวัลอคติ” – การจ่ายเงินรางวัลสำหรับการเปิดเผยข้อบกพร่องทางจริยธรรม – เพื่อพิสูจน์ความสมบูรณ์ก่อนที่จะเผยแพร่ AI เพื่อใช้งานในวงกว้าง
มิฉะนั้น อุตสาหกรรมจะเผชิญกับ “วิกฤตความไว้วางใจ” ในระบบที่สนับสนุนสังคมของเรามากขึ้นเรื่อยๆ เนื่องจากความกังวลของสาธารณชนยังคงเพิ่มพูนขึ้นเหนือทุกสิ่งตั้งแต่รถยนต์ไร้คนขับและโดรนไร้คนขับ ไปจนถึงอัลกอริธึมโซเชียลมีเดียลับที่เผยแพร่ข้อมูลที่ผิดและก่อให้เกิดความปั่นป่วนทางการเมือง
Dr Shahar Avin จาก CSER กล่าวว่า ความแปลกใหม่และลักษณะ “กล่องดำ” ของระบบ AI และการแข่งขันที่รุนแรงในการแข่งขันกับตลาด ได้ขัดขวางการพัฒนาและการยอมรับการตรวจสอบหรือการวิเคราะห์ของบุคคลที่สาม
ผู้เชี่ยวชาญให้เหตุผลว่าแรงจูงใจในการเพิ่มความน่าเชื่อถือไม่ควรจำกัดอยู่แค่ด้านกฎระเบียบ แต่ต้องมาจากภายในอุตสาหกรรมที่ยังไม่เข้าใจอย่างเต็มที่ว่าความไว้วางใจจากสาธารณชนมีความสำคัญต่ออนาคตของตัวเอง และความไว้วางใจก็พังทลายลง
สิ่งพิมพ์ใหม่นำเสนอชุดของมาตรการ “คอนกรีต” ที่พวกเขากล่าวว่าควรนำมาใช้โดยนักพัฒนา AI
“มีช่องว่างที่สำคัญในกระบวนการที่จำเป็นในการสร้าง AI ที่ได้รับความไว้วางใจจากสาธารณชน ช่องว่างเหล่านี้บางส่วนทำให้เกิดพฤติกรรมที่น่าสงสัยซึ่งขณะนี้ทำให้เสื่อมเสียทั้งสนาม” Avin กล่าว
“เรากำลังเริ่มเห็นการโต้กลับของสาธารณชนต่อเทคโนโลยี ‘เทคโนโลยี’ นี้สามารถครอบคลุมได้ทั้งหมด: AI ทั้งหมดดีหรือ AI ทั้งหมดไม่ดี
“รัฐบาลและสาธารณชนจำเป็นต้องสามารถระบุคนที่น่าเชื่อถือ คนขายน้ำมันงู และผู้ที่ไม่มีความรู้ได้อย่างง่ายดาย” Avin กล่าว “เมื่อคุณสามารถทำเช่นนั้นได้ มีแรงจูงใจที่แท้จริงที่จะเชื่อถือได้ แต่ในขณะที่คุณไม่สามารถแยกพวกเขาออกจากกัน มีความกดดันมากมายที่จะต้องตัดมุม”
ผู้เขียนร่วมและนักวิจัย CSER Haydn Belfield กล่าวว่า “นักพัฒนา AI ส่วนใหญ่ต้องการดำเนินการด้วยความรับผิดชอบและปลอดภัย แต่ก็ยังไม่ชัดเจนว่าพวกเขาจะทำอะไรได้บ้างจนถึงตอนนี้ รายงานของเราเติมเต็มช่องว่างเหล่านี้”
แนวคิดของ AI “red teaming” ซึ่งบางครั้งเรียกว่าแฮ็กแฮ็กหมวกขาว ได้มาจากการรักษาความปลอดภัยทางไซเบอร์
“ทีมสีแดงเป็นแฮ็กเกอร์ที่มีจริยธรรมซึ่งสวมบทบาทตัวแทนภายนอกที่มุ่งร้าย” Avin กล่าว “พวกเขาจะถูกเรียกให้โจมตี AI ใหม่หรือกลยุทธ์ในการใช้งานเพื่อจุดประสงค์ที่เป็นอันตราย เพื่อเปิดเผยจุดอ่อนหรือศักยภาพที่จะเป็นอันตราย”
ในขณะที่บริษัทใหญ่ๆ บางแห่งมีความสามารถภายในสำหรับ “ทีมสีแดง” ซึ่งมาพร้อมกับข้อขัดแย้งด้านจริยธรรมของตนเอง รายงานเรียกร้องให้มีชุมชนบุคคลที่สาม ซึ่งสามารถตรวจสอบ AI ใหม่ได้อย่างอิสระและแบ่งปันสิ่งที่ค้นพบเพื่อประโยชน์ของนักพัฒนาทั้งหมด
แหล่งข้อมูลระดับโลกสามารถเสนอทีมสีแดงคุณภาพสูงให้กับบริษัทสตาร์ทอัพขนาดเล็กและห้องปฏิบัติการวิจัยที่พัฒนา AI ที่สามารถแพร่หลายได้
รายงานฉบับใหม่ ซึ่งเป็นการปรับปรุงโดยย่อของ คำแนะนำที่มีรายละเอียดมากขึ้น ซึ่งเผยแพร่โดยกลุ่มผู้เชี่ยวชาญ 59 คนในปีที่แล้ว ยังเน้นย้ำถึงศักยภาพของ “ค่าหัว” ด้านความปลอดภัยและอคติที่จะเพิ่มความเปิดกว้างและความเชื่อมั่นของสาธารณชนต่อ AI
นี่หมายถึงการให้รางวัลทางการเงินแก่นักวิจัยที่ค้นพบข้อบกพร่องใน AI ที่มีศักยภาพในการประนีประนอมความไว้วางใจหรือความปลอดภัยของประชาชน – เช่นอคติทางเชื้อชาติหรือเศรษฐกิจและสังคมในอัลกอริทึมที่ใช้สำหรับวัตถุประสงค์ทางการแพทย์หรือการสรรหาบุคลากร
เมื่อต้นปีนี้ Twitter เริ่มเสนอเงินรางวัลแก่ผู้ที่สามารถระบุอคติในอัลกอริธึมการครอบตัดรูปภาพได้
บริษัทต่างๆ จะได้รับประโยชน์จากการค้นพบเหล่านี้ นักวิจัยกล่าว และให้เวลาจัดการกับมันก่อนที่จะเปิดเผยต่อสาธารณะ Avin ชี้ให้เห็นว่า ในปัจจุบัน “การผลักดันและยั่วยุ” ส่วนใหญ่ดำเนินการบนพื้นฐานเฉพาะกิจที่จำกัดโดยนักวิชาการและนักข่าวสืบสวนสอบสวน
รายงานยังเรียกร้องให้มีการตรวจสอบโดยหน่วยงานภายนอกที่เชื่อถือได้ – และสำหรับมาตรฐานแบบเปิดเกี่ยวกับวิธีการจัดทำเอกสาร AI เพื่อให้การตรวจสอบดังกล่าวเป็นไปได้ – พร้อมกับแพลตฟอร์มที่ทุ่มเทให้กับการแบ่งปัน “เหตุการณ์”: กรณีของพฤติกรรม AI ที่ไม่พึงประสงค์ที่อาจก่อให้เกิดอันตรายต่อมนุษย์
นักวิจัยกล่าวว่าสิ่งเหล่านี้ควบคู่ไปกับผลที่มีความหมายสำหรับความล้มเหลวในการตรวจสอบภายนอกจะส่งผลต่อ “ระบบนิเวศแห่งความไว้วางใจ” อย่างมีนัยสำคัญ
“บางคนอาจตั้งคำถามว่าคำแนะนำของเราขัดแย้งกับผลประโยชน์เชิงพาณิชย์หรือไม่ แต่อุตสาหกรรมที่มีความสำคัญต่อความปลอดภัยอื่นๆ เช่น อุตสาหกรรมยานยนต์หรือเภสัชกรรม สามารถจัดการได้ดี” เบลฟิลด์กล่าว
“ชีวิตและการดำรงชีวิตพึ่งพา AI ที่ปิดการตรวจสอบข้อเท็จจริงมากขึ้นเรื่อยๆ และนั่นคือสูตรสำหรับวิกฤตความไว้วางใจ ถึงเวลาแล้วที่อุตสาหกรรมจะต้องก้าวไปไกลกว่าหลักการทางจริยธรรมที่มีความหมายดี และใช้กลไกในโลกแห่งความเป็นจริงเพื่อแก้ไขปัญหานี้” เขากล่าว
เพิ่ม Avin: “เรารู้สึกขอบคุณผู้ทำงานร่วมกันของเราที่ได้เน้นย้ำถึงความคิดริเริ่มที่หลากหลายที่มุ่งจัดการกับความท้าทายเหล่านี้ แต่เราต้องการนโยบายและการสนับสนุนจากสาธารณะเพื่อสร้างระบบนิเวศแห่งความไว้วางใจสำหรับ AI”