OpenAI เรียกร้องตั้งหน่วยงานกำกับดูแลระหว่างประเทศควบคุมการพัฒนา “เอไอ”


โดย PPTV Online

เผยแพร่




OpenAI ผู้พัฒนา ChatGPT เรียกร้องให้มีการตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมปัญญาประดิษฐ์ ลักษณะเดียวกับที่ต้องคุมนิวเคลียร์

OpenAI ผู้พัฒนาแชตบอตอัจฉริยะ “ChatGPT” ได้ออกมาเรียกร้องให้มีการตั้งหน่วยงานกำกับดูแลระหว่างประเทศเพื่อควบคุมปัญญาประดิษฐ์ (เอไอ) ที่ “ฉลาดล้ำ” โดยเฉพาะ

โดยคณะผู้บริหารของบริษัทบอกว่า หน่วยงานที่ควรตั้งนี้จำเป็นต้องมีมาตรฐานเทียบเท่ากับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA) เพื่อปกป้องมนุษยชาติจากความเสี่ยงของ “การสร้างบางสิ่งที่มีอำนาจทำลายล้างสูงโดยไม่ได้ตั้งใจ”

คอนเทนต์แนะนำ
กางปฏิทินจ่ายเงินเดือนข้าราชการ ค่าจ้างลูกจ้างประจำ บำนาญ ปี 2566
"วันวิสาขบูชา 2566" ตรงกับวันไหน พร้อมเปิดประวัติ-ความสำคัญ
เช็กราคา Netflix "สมาชิกเสริม" จ่ายอีก 99 แต่ต้องเริ่มแพคเกจที่ 349 บาท/เดือน

 

 

ในข้อความที่เผยแพร่บนเว็บไซต์ของบริษัท ผู้ร่วมก่อตั้ง เกร็ก บร็อกแมน และอิลยา ซุตสกีเวอร์ และประธานเจ้าหน้าที่บริหาร แซม อัลต์แมน เรียกร้องให้หน่วยงานกำกับดูแลระหว่างประเทศเริ่มดำเนินการเกี่ยวกับวิธีการ “ตรวจสอบ ทดสอบการปฏิบัติตามมาตรฐานความปลอดภัย และวางข้อจำกัดเกี่ยวกับระดับการปรับใช้และระดับความปลอดภัย” เพื่อลดความเสี่ยงของระบบดังกล่าวที่อาจเกิดขึ้นได้

ใครจะชนะ? ในสมรภูมิการพัฒนา “เอไอผู้ช่วย”

ความเปลี่ยนแปลงของ “กูเกิลเสิร์ช” หลังเปิดตัว “ระบบค้นหาแบบมีเอไอ”

เจ้าพ่อแห่งวงการเอไอเผย “เสียใจที่พัฒนาปัญญาประดิษฐ์ขึ้นมา”

คณะผู้บริหารระบุว่า “เป็นไปได้ว่าภายใน 10 ปีข้างหน้า ระบบเอไอจะเกินระดับทักษะผู้เชี่ยวชาญในอุตสาหกรรมส่วนใหญ่ และดำเนินกิจกรรมที่มีประสิทธิผลมากพอ ๆ กับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน ... ในแง่ของศักยภาพทั้งด้านบวกและด้านลบ ความฉลาดหลักแหลมจะมีพลังมากกว่าเทคโนโลยีอื่น ๆ ที่มนุษยชาติต้องต่อสู้ด้วยในอดีต เราสามารถมีอนาคตที่มั่งคั่งกว่านี้ได้อย่างมาก แต่เราต้องบริหารความเสี่ยงเพื่อไปถึงจุดนั้น เมื่อพิจารณาถึงความเป็นไปได้ของความเสี่ยงที่มีอยู่ เราจึงไม่สามารถรอเป็นฝ่ายรับได้”

ในระยะสั้น ทั้งสามเรียกร้องให้มีการประสานงานในระดับหนึ่งระหว่างบริษัทที่ทำงานเกี่ยวกับการวิจัยเอไอ เพื่อให้แน่ใจว่าการพัฒนาโมเดลที่ทรงพลังยิ่งขึ้นนั้นผสานรวมเข้ากับสังคมได้อย่างราบรื่นในขณะเดียวกันก็ให้ความสำคัญกับความปลอดภัย การประสานงานดังกล่าวอาจมาจากโครงการที่นำโดยรัฐบาล หรือผ่านข้อตกลงร่วมกันเพื่อจำกัดการเติบโตของความสามารถของเอไอ

นักวิจัยเตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากระบบเอไอระดับสูงมาหลายทศวรรษแล้ว แต่เมื่อการพัฒนาเอไอก้าวไปอย่างรวดเร็ว ความเสี่ยงเหล่านั้นก็เป็นรูปธรรมมากขึ้น ศูนย์ความปลอดภัยเอไอ (CAIS) ในสหรัฐฯ อเมริกา ซึ่งทำงานเพื่อลดความเสี่ยงในระดับสังคมจากปัญญาประดิษฐ์ ได้อธิบายถึงความเสี่ยง 8 ประเภทที่อาจเกิดจากการพัฒนาเอไอ

ในขณะที่บางคนกังวลว่าเอไอที่ทรงพลังจะทำลายมนุษยชาติโดยสิ้นเชิง ไม่ว่าจะโดยบังเอิญหรือโดยเจตนา แต่ CAIS อธิบายถึงอันตรายอื่น ๆ ที่ร้ายแรงกว่านั้น เช่น โลกที่ระบบเอไอถูกใช้แทนแรงงานคนมากขึ้นเรื่อย ๆ อาจนำไปสู่การที่มนุษยชาติสูญเสียความสามารถในการปกครองตนเองและต้องพึ่งพาเครื่องจักรโดยสิ้นเชิง

และที่ร้ายแรงกว่านั้น คืออาจเกิดคนกลุ่มเล็ก ๆ ที่ควบคุมระบบเอไอที่ทรงพลัง ซึ่งจะนำไปสู่สังคมระบบวรรณะถาวรระหว่างผู้ถูกปกครองและผู้ถูกปกครอง

ผู้บริหารของ OpenAI กล่าวว่า ความเสี่ยงเหล่านั้นหมายความว่า “ผู้คนทั่วโลกควรตัดสินใจอย่างเป็นประชาธิปไตยเกี่ยวกับขอบเขตและค่าเริ่มต้นสำหรับระบบเอไอ” แต่ในขณะเดียวพวกเขาก็ยอมรับว่า “เรายังไม่รู้ว่าจะออกแบบกลไกดังกล่าวอย่างไร”

อย่างไรก็ตาม พวกเขากล่าวว่า การพัฒนาระบบเอไอที่ทรงพลังอย่างต่อเนื่องนั้นคุ้มค่ากับความเสี่ยง

“เราเชื่อว่ามันจะนำไปสู่โลกที่ดีกว่าที่เราจะจินตนาการได้ในวันนี้” และเตือนว่า การหยุดการพัฒนาชั่วคราวอาจเป็นอันตรายได้เช่นกัน

“เนื่องจากส่วนต่างมีมากมายมหาศาล ค่าใช้จ่ายในการสร้างจึงลดลงในแต่ละปี จำนวนผู้ดำเนินการสร้างจึงเพิ่มขึ้นอย่างรวดเร็ว และโดยเนื้อแท้แล้วมันเป็นส่วนหนึ่งของเส้นทางเทคโนโลยีที่เราดำเนินอยู่ การหยุดมันจะต้องมีอะไรบางอย่างมารองรับ เช่น ระบบการเฝ้าระวังทั่วโลก และนั่นไม่ได้รับประกันว่าจะได้ผล ดังนั้นเราต้องทำให้ถูกต้อง” พวกเขากล่าว

 

เรียบเรียงจาก The Guardian

ภาพจาก AFP

คอนเทนต์แนะนำ
เช็กสิทธิ! เปิดสมัครสอบครูผู้ช่วย ปี 2566
พบเส้นทางเงิน 78 ล้านของ "แอม" มาจากพนัน
WHO เตือนทั่วโลกการ์ดอย่าตก เตรียมพร้อมรับมือโรคใหม่เสมอ

TOP ไอที
วิดีโอยอดนิยม
เรื่องที่คุณอาจพลาด

วิดีโอยอดนิยม

ข่าวเด่นในรอบสัปดาห์

เพิ่ม PPTVHD36
ลงในหน้าจอหลักของคุณ