Дрон ба өөрөө жолооддог машиныг зэвсэг болгон: яагаад бид хакеруудаас айх хэрэгтэй байна вэ?
Дрон ба өөрөө жолооддог машиныг зэвсэг болгон: яагаад бид хакеруудаас айх хэрэгтэй байна вэ?
Anonim

Хэрэв хиймэл оюун ухаан буруу хүмүүсийн гарт орвол соёлт ертөнц эмх замбараагүй байдалд орж болзошгүй.

Дрон ба өөрөө жолооддог машиныг зэвсэг болгон: яагаад бид хакеруудаас айх хэрэгтэй байна вэ?
Дрон ба өөрөө жолооддог машиныг зэвсэг болгон: яагаад бид хакеруудаас айх хэрэгтэй байна вэ?

Хиймэл оюун ухаан бидний амьдралыг шинэ шатанд гаргахыг хэн ч үгүйсгэхгүй. AI нь хүний хүч чадлаас давсан олон асуудлыг шийдэж чаддаг.

Гэсэн хэдий ч супер тагнуулууд биднийг SkyNet шиг устгахыг хүсэх эсвэл Portal тоглоомын GLADoS гэх мэт хүмүүс дээр туршилт хийж эхэлнэ гэж олон хүн үзэж байна. Хамгийн хачирхалтай нь зөвхөн хүн л хиймэл оюун ухааныг сайн эсвэл муу болгож чаддаг.

Яагаад хиймэл оюун ухаан нь ноцтой аюул учруулж болох вэ?
Яагаад хиймэл оюун ухаан нь ноцтой аюул учруулж болох вэ?

Йелийн их сургууль, Оксфорд, Кембриж, OpenAI зэрэг байгууллагын судлаачид хиймэл оюун ухааныг урвуулан ашигласан тухай тайлан нийтэлжээ. Жинхэнэ аюул нь хакеруудаас ирдэг гэсэн. Хортой кодын тусламжтайгаар тэд хиймэл оюун ухааны хяналтан дор автоматжуулсан системийн ажиллагааг тасалдуулж чадна.

Судлаачид сайн санаатай технологид хор хөнөөл учруулна гэж эмээж байна. Тухайлбал, ажиглалтын төхөөрөмжийг зөвхөн алан хядагчдыг бариад зогсохгүй энгийн иргэдийг тагнаж чагнахад ашиглаж болно. Судлаачид хоол хүнс хүргэдэг арилжааны дронуудад бас санаа зовж байна. Тэднийг таслан зогсоож, тэсрэх бодис суулгахад хялбар байдаг.

Хиймэл оюун ухааныг хор хөнөөлтэй ашиглах өөр нэг хувилбар бол өөрөө жолооддог машинууд юм. Хэдэн мөр кодыг өөрчлөхөд хангалттай бөгөөд машинууд аюулгүй байдлын дүрмийг үл тоомсорлож эхэлнэ.

Яагаад хиймэл оюун ухаан нь ноцтой аюул учруулж болох вэ?
Яагаад хиймэл оюун ухаан нь ноцтой аюул учруулж болох вэ?

Эрдэмтэд аюул нь дижитал, физик, улс төрийн шинжтэй байж болно гэж үзэж байна.

  • Төрөл бүрийн програм хангамжийн кодын эмзэг байдлыг судлахад хиймэл оюун ухааныг аль хэдийн ашиглаж эхэлсэн. Ирээдүйд хакерууд ямар ч хамгаалалтыг тойрч гарах робот бүтээж чадна.
  • AI-ийн тусламжтайгаар хүн олон процессыг автоматжуулж чадна: жишээлбэл, олон тооны дрон эсвэл машинуудыг удирдах боломжтой.
  • DeepFake зэрэг технологийн тусламжтайгаар дэлхийн удирдагчдын бот ашиглаж байгаа тухай худал мэдээллийг интернетээр тарааж улсын улс төрийн амьдралд нөлөөлөх боломжтой.

Эдгээр аймшигт жишээнүүд одоог хүртэл зөвхөн таамаглал төдий л байсаар байна. Судалгааны зохиогчид технологиос бүрэн татгалзахыг санал болгодоггүй. Үүний оронд хиймэл оюун ухааны салбар дөнгөж эхэлж байх үед үндэсний засгийн газар болон томоохон компаниуд аюулгүй байдлыг хангах ёстой гэж тэд үзэж байна.

Бодлого боловсруулагчид хиймэл оюун ухааныг бий болгох, ашиглах асуудлыг үр дүнтэй зохицуулахын тулд технологийг судалж, салбарын мэргэжилтнүүдтэй хамтран ажиллах ёстой.

Хөгжүүлэгчид нь эргээд өндөр технологийн аюулыг үнэлж, хамгийн муу үр дагаврыг урьдчилан харж, дэлхийн удирдагчдад анхааруулах ёстой. Уг тайланд хиймэл оюун ухааныг хөгжүүлэгчид бусад салбарын аюулгүй байдлын мэргэжилтнүүдтэй хамтран ажиллаж, эдгээр технологийн аюулгүй байдлыг хангах зарчмуудыг хиймэл оюун ухааныг хамгаалахад ашиглаж болох эсэхийг шалгахыг уриалсан байна.

Бүрэн тайланд асуудлыг илүү дэлгэрэнгүй тайлбарласан боловч эцсийн дүндээ AI бол хүчирхэг хэрэгсэл юм. Сонирхсон бүх талууд шинэ технологийг судалж, гэмт хэргийн зорилгоор ашиглахгүй байх ёстой.

Зөвлөмж болгож буй: