ประสบการณ์การฟังที่ดีที่สุดอยู่บน Chrome, Firefox หรือ Safari สมัครรับเสียงสัมภาษณ์ประจำวันของ Federal Drive ใน Apple Podcasts หรือ PodcastOneขณะที่หน่วยงานต่าง ๆ ยังคงทดลองใช้ปัญญาประดิษฐ์เป็นเครื่องมือในการเปลี่ยนแปลงวิธีการทำธุรกิจ สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (National Institute of Standards and Technology) ได้กำหนดแผนงานสำหรับบทบาทของรัฐบาลในการพัฒนานวัตกรรม AI ในอนาคต
หลังจากหลายเดือนของการตอบรับจากภาคอุตสาหกรรมและที่อื่นๆ
ในรัฐบาล ตลอดจนการประชุมเชิงปฏิบัติการแบบตัวต่อตัวในเดือนพฤษภาคม NIST ได้วางกฎพื้นฐานบางประการเกี่ยวกับสิ่งที่หน่วยงานควรและไม่ควรทำกับเครื่องมือ AI นับจากนี้เป็นต้นไป
Insight by Tanium: เอเจนซีกำลังฝึกฝนวิธีที่ดีที่สุดในการรักษาความปลอดภัยซอฟต์แวร์และมองเห็นซัพพลายเออร์ได้ดีขึ้น เราพูดคุยกับผู้นำจาก DoD, FDA, GSA, NASA และรัฐเพื่อเปิดเผยว่าหน่วยงานต่าง ๆ ตอบสนองความต้องการในการมองเห็นแนวทางปฏิบัติทางไซเบอร์ของผู้ขายได้อย่างไร
แผนของ NISTนับเป็นความพยายามครั้งสำคัญครั้งแรกของรัฐบาลกลางในการให้ความชัดเจนและคำแนะนำแก่หน่วยงานที่ต้องการนำเทคโนโลยีมาใช้ ซึ่งแม้ว่าจะเป็นกระแสฮือฮาในตอนนี้ แต่ความจริงแล้วย้อนกลับไปในทศวรรษที่ 1960แต่ก็ยังอยู่ในช่วงเริ่มต้น
ด้วยความตระหนักว่าเทคโนโลยี AI ยังอยู่ในช่วงเริ่มต้น Elham Tabassi รักษาการหัวหน้าเจ้าหน้าที่ของห้องปฏิบัติการเทคโนโลยีสารสนเทศของ NIST และผู้เขียนนำรายงาน NIST กล่าวว่าหนึ่งในประเด็นหลักของรายงานคือการสร้างความสมดุลระหว่างกฎระเบียบและนวัตกรรม
“สิ่งสำคัญคือมาตรฐานไม่ควรกำหนดมากเกินไป มิฉะนั้นพวกเขากำลังขัดขวางนวัตกรรม และเป็นสิ่งสำคัญอย่างยิ่งสำหรับกรณีของ AI ซึ่งเป็นเทคโนโลยีที่เคลื่อนไหวอย่างรวดเร็ว ความยืดหยุ่นคือกุญแจสำคัญ” Tabassi กล่าวในการให้สัมภาษณ์
รายงานดังกล่าวมีที่มาจากคำสั่งของประธานาธิบดีโดนัลด์
ทรัมป์ที่ลงนามเมื่อเดือนกุมภาพันธ์ ซึ่งมอบหมายให้ NIST พัฒนากลยุทธ์เพื่อ “ลดความเสี่ยงต่อการโจมตีจากผู้ไม่ประสงค์ดีให้น้อยที่สุด” สร้างความเชื่อมั่นของสาธารณะต่อ AI และพัฒนามาตรฐานสากลสำหรับการใช้งาน AI
สำหรับสองเป้าหมายแรก Tabassi กล่าวว่า NIST มีแนวทางเพิ่มเติมในการทำงาน ในอีกไม่กี่เดือนข้างหน้า NIST จะขอความคิดเห็นสาธารณะเกี่ยวกับคำแนะนำในการเผชิญหน้ากับแมชชีนเลิร์นนิงของฝ่ายตรงข้าม และในต้นปีหน้า หน่วยงานจะขอข้อเสนอแนะเกี่ยวกับมาตรฐานที่กำลังจะมีขึ้นสำหรับ AI ที่อธิบายได้
เป้าหมายที่ 3 รัฐบาลมีความคืบหน้าแล้ว ในเดือนพฤษภาคม 40 ประเทศรวมถึงสหรัฐอเมริกาได้ลงนามในหลักการทั่วไปของ AI ผ่าน องค์การระหว่างประเทศเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา
ในรายงานของ NIST พบว่ากลุ่มอุตสาหกรรมได้กำหนดมาตรฐาน AI ไว้แล้วในทุกสิ่งตั้งแต่ข้อมูลไปจนถึงการจัดการความเสี่ยง แต่ยังไม่มีองค์กรใดที่สรุปแม่แบบสำหรับการพัฒนาความไว้วางใจของสาธารณะในการตัดสินใจที่เข้าถึงโดยอัลกอริทึม AI Tabassi กล่าวว่ายังคงเป็นอุปสรรคสำคัญในการเปิดตัวเครื่องมือ AI ในหน่วยงานต่างๆ
“เราต้องการให้พวกเขาอธิบายได้ มากกว่าแค่ให้คำตอบ พวกเขาควรจะสามารถอธิบายได้ว่าพวกเขาได้รับคำทำนายหรือการตัดสินใจนั้นมาได้อย่างไร” เธอกล่าว “นั่นเป็นการเพิ่มความไว้วางใจในระบบไปอีกนาน”สำนักงานโครงการวิจัยขั้นสูงกลาโหมได้ลงทุนหลายพันล้านในช่วงไม่กี่ปีที่ผ่านมาในการพัฒนาAI รุ่นต่อไปที่ “อธิบายได้” แต่ทาบาสซีกล่าวว่าหน่วยงานต่างๆ ต้องการมาตรฐานที่แตกต่างกันของความสามารถในการอธิบายของ AI โดยพิจารณากรณีการใช้งานสำหรับ AI ในหน่วยงานของรัฐบาล ตั้งแต่งานของกรมการขนส่งเกี่ยวกับรถยนต์ไร้คนขับไปจนถึงสำนักงานสิทธิบัตรและเครื่องหมายการค้าที่ปรับปรุงกระบวนการอนุมัติสิทธิบัตร
“ถ้าคุณอธิบายผลลัพธ์ของระบบ AI ที่ดู MRI ของสมอง แล้วบอกว่ามีเนื้องอกหรือไม่ — ถ้าคุณอธิบายให้คนไข้ฟัง ไม่ใช่ช่างเทคนิค แสดงว่ามีระดับที่แตกต่างกัน ของการอธิบายที่จำเป็น” Tabassi กล่าว
เพื่อปรับปรุงความน่าเชื่อถือของ AI NIST ได้แนะนำให้หน่วยงานต่างๆ พัฒนามาตรฐานข้อมูล เพื่อ “ทำให้ข้อมูลการฝึกอบรมที่จำเป็นสำหรับแอปพลิเคชันแมชชีนเลิร์นนิงมองเห็นได้ชัดเจนขึ้นและใช้งานได้มากขึ้นสำหรับผู้ใช้ที่ได้รับอนุญาตทั้งหมด”
รายงานยังแนะนำให้พัฒนามาตรฐานที่ดีขึ้นสำหรับเอเจนซี่ “แท่นทดสอบ AI” เพื่อให้แน่ใจว่า “นักวิจัยสามารถใช้ข้อมูลการปฏิบัติงานจริงเพื่อสร้างแบบจำลองและดำเนินการทดลองบนระบบในโลกแห่งความเป็นจริง … และสถานการณ์จำลองในสภาพแวดล้อมการทดสอบที่ดี”
Credit : สล็อตยูฟ่าเว็บตรง