Root NationМакалаларАналитикаЭмне үчүн ЕБ AI жөнгө салуучу болууну каалайт жана аны кантип пландаштырууда

Эмне үчүн ЕБ AI жөнгө салуучу болууну каалайт жана аны кантип пландаштырууда

-

Европа парламенти AI жөнгө салуу эрежелери боюнча келечектеги мыйзамдын негизи боло турган мыйзам долбоорун жактырды. Келгиле, бул эмне экенин аныктоого аракет кылалы ЕБ AI актысы.

Биринчиден, ЕБ AI актысы AI менен байланышкан көйгөйлөрдү комплекстүү жөнгө салган дүйнөдөгү биринчи мыйзам болушу керек. Азырынча мыйзамдын өзү эмес, долбоор гана жактырылды. Эми ал акыркы вариантын кабыл алуу үчүн Евробиримдикке мүчө 27 өлкөнүн парламенттерине сунушталат. Башкача айтканда, ЕБ AIнын кандайдыр бир жөнгө салуучусу болууга, AI алгоритмдерин жана машиналык үйрөнүүнү иштеп чыгууда жана ишке ашырууда белгилүү алкактарды жана чектөөлөрдү белгилөөгө аракет кылууда.

Ошондой эле кызыктуу: Келечектин роботтору: жасалма интеллект денеге ээ болобу?

Европа Биримдиги жасалма интеллектти жөнгө салгысы келет

Европа Биримдиги AI алгоритмдерин колдонуу рыногундагы башаламандыкка чекит коюуну көздөйт жана жасалма интеллекттин жаңы түрлөрүн жөнгө салууну колго алууда. Европарламент жаңы AI программаларын ишке ашыруу эрежелерин киргизүүгө, ал тургай аларды жашоонун айрым чөйрөлөрүндө колдонууга тыюу салууга тийиш болгон “Жасалма интеллект жөнүндө” мыйзам долбоору боюнча ишти тездетти.

Азыркы учурда интеллекттин азыркы өнүгүүсүн эске алуу менен мындай жөнгө салуунун формасы жөнүндө талкуулар жүрүп жатат. Негизинен, Европарламенттин депутаттары мыйзамга жалпы максаттагы жасалма интеллект менен фундаменталдык моделдердин ортосундагы айырманы жазгысы келет жана мыйзамдар акыркыларына карата катуураак колдонулат деп күтүлүүдө. Мурда сунушталган жоболордун мындай модификациясы акыркы айларда AIнын тез өнүгүшү менен шартталган. Жасалма интеллекттин эки формасы тең бири-биринен окутуу маалыматтарынын масштабы, адаптация жана күтүлбөгөн максаттар үчүн колдонуу ыктымалдыгы менен айырмаланат.

ЕБ AI актысы

Бул параметрлердин баары фундаменталдык моделдерде, өзгөчө GPT-3 жана GPT-4 сыяктуу моделдердин негизи болгон генеративдик AIде жогорураак. Алар иш процессинде тынымсыз кеңейген маалыматтардын чоң көлөмүн иштетишет. Ошондуктан, алар жаратуучулар ойлогондон такыр башка жол менен колдонула турган жаңы маалыматтарды тез үйрөнө алышат.

Жаңы көрсөтмөлөрдүн негизинде AI алып келиши мүмкүн болгон потенциалдуу коркунучтардын негизинде топтордун үч баскычтуу классификациясы иштелип чыгат. Тобокелдиктин эң жогорку деңгээли сезгич тармактарда машинаны үйрөнүү технологияларын колдонууну чектөөнү, ал эми кээ бир учурларда аларга таптакыр тыюу салууну билдирет.

Жасалма интеллект актысы киргизилгенден кийин, технологияны иштеп чыгуучу аны рынокко чыгаруудан мурун бир катар шарттарга жооп бериши керек, мисалы, көз карандысыз эксперттердин көзөмөлү астында демократияга же коопсуздукка коркунуч туудурган тестирлөө, ачык-айкындуулук талаптарын аткаруу, же моделдин эсептөө күчүн ачып берүү. Ошол эле учурда, фундаменталдык моделдер социалдык баллдык системаларды (Кытайдагыдай) же биометрикалык идентификацияны түзүү үчүн колдонулушу мүмкүн эмес.

Ошондой эле кызыктуу: 6G тармактары деген эмне жана алар эмне үчүн керек?

- жарнак -

Жасалма интеллект боюнча ЕБ мыйзамы деген эмне?

ЕБ AI актысы Европа Биримдиги тарабынан сунушталган жасалма интеллект мыйзамы жана ири жөнгө салуучу орган тарабынан кабыл алынган биринчи AI мыйзамы. Мыйзам AI колдонууну тобокелдиктердин үч категориясына ылайык жөнгө салат. Биринчиден, Кытайда колдонулган мамлекеттик социалдык баалоо сыяктуу кабыл алынгыс социалдык тобокелдиктерди жараткан программаларга жана системаларга тыюу салынат. Экинчиден, жогорку тобокелдик программалары бар, мисалы, резюме сканерлөөчү инструменттер жумушка талапкерлердин рейтингин аныктайт, алар белгилүү бир мыйзам талаптарына жооп бериши керек. Акыр-аягы, ачык тыюу салынбаган же жогорку тобокелдик катары саналбаган жана негизинен жөнгө салынбаган программалар.

ЕБ AI актысы

Европа Биримдиги AI Актынын үстүндө иштеп жатат, башкача айтканда, жасалма интеллекттин адамдарга тийгизген зыянын чектөөгө багытталган мыйзамдар жана жоболор.

Бул Биримдик үчүн маанилүү жалпы этикалык баалуулуктарга негизделген мамиле, аны толугу менен мамлекеттик көзөмөлгө жана жеке укуктарды аз эске алууга негизделген кытайлык мамилеге жана эң аялуу жарандардын укуктарын этибарга албаган америкалык моделге карама-каршы коёт.

Европа Комиссиясы жасалма интеллект принциптери үчүн европалык жөнгө салуучу чөйрөнү түзүүнү көздөйт. Жасалма интеллект мыйзамынын максаты технология рыногун кызматтын же продуктунун түрү боюнча эмес, AI алып келиши мүмкүн болгон тобокелдиктин деңгээли боюнча жөнгө салуу болуп саналат.

Ошондой эле кызыктуу: Каардуу эски Geek күндөлүгү: Bing vs Google

Эмне үчүн бизге AI боюнча эрежелер керек?

Сунушталган AI жобосу европалыктар AI сунуш кылган нерселерге ишене аларын камсыздайт. Жасалма интеллект системаларынын көбү эч кандай коркунуч туудурбайт жана көптөгөн коомдук көйгөйлөрдү чечүүгө салым кошо алат, бирок кээ бир жасалма интеллект системалары биз жагымсыз натыйжаларды болтурбоо үчүн ойлонушубуз керек болгон коркунучтарды жаратат.

Мисалы, жасалма интеллект системасы эмне үчүн кандайдыр бир чечим чыгарганын, прогноз бергенин же тиешелүү иш-аракетти жасаганын билүү мүмкүн эмес. Ошентип, адам, мисалы, жумушка алуу чечиминде же жөлөкпул программасына арызда адилетсиз зыянга учурагандыгын баалоо кыйын болуп калышы мүмкүн.

ЕБ AI актысы

Учурдагы мыйзамдар кандайдыр бир коргоону камсыз кылганы менен, AI системалары түзө турган конкреттүү көйгөйлөрдү чечүү үчүн жетишсиз.

Төмөнкү эрежелер сунушталды:

  • AI программалары тарабынан атайын түзүлгөн тобокелдиктерди жок кылуу
  • жогорку тобокелдикке ээ программалардын тизмесин сунуш
  • жогорку тобокелдикке ээ колдонмолор үчүн AI системаларына так талаптарды коюу
  • AI колдонуучулар жана жогорку тобокелдик программалык камсыздоочулар үчүн конкреттүү милдеттерди аныктоо
  • AI системасы ишке киргизилгенге же рынокко коюлганга чейин шайкештикти баалоону сунуштаңыз
  • мындай AI системасы рынокко чыгарылгандан кийин колдонуу багыттарын сунуштоо;
  • европалык жана улуттук деңгээлдеги башкаруу структурасын сунуш кылышат.

Ошондой эле кызыктуу: Жасалма интеллектке негизделген мыкты куралдар

AIдагы коркунучтун төрт деңгээли

Европа Бирлигинин юристтери AIдагы тобокелдиктин 4 деңгээлин аныктаган мыйзамдык базаны аныкташкан:

  • Кабыл алынгыс тобокелдик
  • Жогорку тобокелдик
  • Чектелген тобокелдик
  • Минималдуу же тобокелдик жок

Келгиле, алардын ар бирин кененирээк талдап көрөлү.

ЕБ AI актысы

- жарнак -

Кабыл алынгыс тобокелдик

Аты айтып тургандай, AI алгоритмдерин иштеп чыгууда жана колдонууда тобокелдиктин бул даражасы кабыл алынбайт. Башкача айтканда, адамдардын коопсуздугуна, жашоосуна жана укуктарына ачык коркунуч туудурган бардык жасалма интеллект системаларына өкмөттөр тарабынан социалдык баа берүүдөн баштап, коркунучтуу жүрүм-турумга үндөгөн оюнчуктарга чейин тыюу салынат.

Жогорку тобокелдик

Төмөнкү аймактарда колдонулган AI системалары жогорку кооптуу деп классификацияланган:

  • жарандардын өмүрүнө жана ден соолугуна коркунуч келтириши мүмкүн болгон маанилүү инфраструктура (мисалы, транспорт).
  • билимге жетүү мүмкүнчүлүгүн жана адамдын кесиптик жолун аныктай турган билим берүү же кесиптик даярдык (мисалы, сынактын жыйынтыгын эсептөө)
  • буюмдун коопсуздугунун компоненттери же жасалма интеллектти колдонуу, мисалы, хирургияда
  • ишке орноштуруу, жумушчу күчүн башкаруу жана өз алдынча иш менен камсыз кылуу мүмкүнчүлүгү (мисалы, жалдоо процедуралары үчүн CV скрининг программасы)
  • негизги жеке жана мамлекеттик кызматтар (мисалы, жарандарды насыя алуу мүмкүнчүлүгүнөн ажыраткан кредитти баалоо)
  • юстиция тармагындагы адамдардын негизги укуктарын чектей турган укук коргоо иш-аракеттери (мисалы, далилдердин ишенимдүүлүгүн баалоо)
  • миграциялык башкаруу, башпаанек жана чек ара көзөмөлү (мисалы, жол жүрүү документтеринин аныктыгын текшерүү)
  • сот адилеттигин жана демократиялык процесстерди ишке ашыруу (мисалы, белгилүү бир фактылардын жыйындысына мыйзамды колдонуу).

Бул жогорку тобокелдик AI системалары рынокко алып чейин катуу талаптарга жооп берет деп аныкталган:

  • адекваттуу тобокелдиктерди баалоо жана азайтуу системалары
  • тобокелдиктерди жана дискриминациялык натыйжаларды азайтуу үчүн системаны азыктандыруучу жогорку сапаттагы маалымат топтому
  • натыйжаларга көз салууну камсыз кылуу үчүн иш-аракеттерди каттоо
  • бийлик органдары анын талаптарга ылайыктуулугун баалоо үчүн система жана анын максаты жөнүндө бардык зарыл маалыматтарды камтыган деталдуу документтер
  • колдонуучу үчүн так жана адекваттуу маалымат
  • тобокелдиктерди минималдаштыруу үчүн адам көзөмөлүнүн тийиштүү чаралары
  • жогорку ишенимдүүлүк, коопсуздук жана тактык.

Эми дээрлик бардыгын коркуткан эң маанилүү аспектилердин бири жөнүндө. Бардык аралыктан биометрикалык идентификациялоо системалары жогорку кооптуу деп эсептелет жана катуу талаптарга жооп берет. Коомдук жайларда дистанциялык биометрикалык идентификацияны укук коргоо максатында колдонууга принципиалдуу түрдө тыюу салынат.

Катуу аныкталган жана жөнгө салынуучу өзгөчөлүктөр, мисалы, дайынсыз жоголгон баланы издөө, конкреттүү жана токтоосуз террористтик коркунучтарды болтурбоо, же кылмышкерди же оор кылмышка шектүүнү табуу, табуу, аныктоо же сот жообуна тартуу зарыл болгондо каралат.

Мындай колдонуу соттук же башка көз карандысыз органдын уруксатын талап кылат жана убакыт, географиялык камтуу жана изделген маалымат базалары боюнча тиешелүү чектөөлөргө ээ.

Чектелген тобокелдик

Чектелген тобокелдик белгилүү бир ачыктык милдеттенмелери бар AI системаларына тиешелүү. Чатботтор сыяктуу жасалма интеллект системаларын колдонгондо, колдонуучулар улантуу же артка кетүү боюнча негизделген чечимди кабыл алуу үчүн алар машина менен иштешип жатканын билиши керек.

Башкача айтканда, бул ChatGPTге эч ким тыюу салбай турганын билдирет, бирок иштеп чыгуучулар өз иштеринин жана келечектеги пландарынын чоо-жайын ачып бериши керек. Колдонуучулар чатботтордон алынган маалыматтын ишенимдүүлүгүнө таянышса, аларды күтүп жаткан тобокелдиктерди түшүнүшү керек.

Минималдуу же тобокелдик жок

Европа Комиссиясы AIны минималдуу тобокелдик менен бекер колдонууга уруксат берет. Бул жасалма интеллект иштетилген видео оюндар же спам чыпкалары сыяктуу тиркемелерди камтыйт. Учурда ЕБде колдонулуп жаткан AI системаларынын басымдуу көпчүлүгү ушул категорияга кирет.

ЕБ AI актысы

AI системасы рынокко киргенде, бийликтер рынокту көзөмөлдөө үчүн жооп берет, колдонуучулар адам көзөмөлүн жана мониторингди камсыз кылат, ал эми жеткирүүчүлөр маркетингден кийинки мониторинг системасына ээ. Жеткирүүчүлөр жана колдонуучулар да олуттуу инциденттер жана бузулуулар жөнүндө кабарлашат.

Ошондой эле окуңуз: ChatGPTтин эң сонун 7 колдонулушу

Эмне үчүн кам көрүшүң керек?

Жасалма интеллект программалары сиз онлайн көрүп жаткан маалыматыңызга таасир этет, сизди кандай мазмун кызыктырарын болжолдойт, мыйзамдарды колдонуу же жарнамаларды жекелештирүү үчүн маалыматтарды чогултуп, талдайт, ошондой эле рак сыяктуу ооруларды аныктоо жана дарылоо үчүн колдонулат. Башка сөз менен айтканда, AI жашооңуздун көптөгөн тармактарына таасир этет.

ЕБ AI актысы

Евробиримдиктин 2018-жылдагы Маалыматтарды коргоо боюнча Жалпы Регламентине (GDPR) окшоп, ЕБ AI мыйзамы кайда болбосун, AI жашооңузга терс эмес, оң таасирин тийгизерин аныктаган глобалдык стандарт болуп калышы мүмкүн. ЕБде жасалма интеллектти жөнгө салуу белгилүү бир эл аралык резонанс жаратууда. 2021-жылдын сентябрынын аягында Бразилия Конгресси да жасалма интеллектти колдонуу үчүн мыйзамдык базаны түзгөн мыйзам долбоорун кабыл алган. Аны дагы деле өлкөнүн Сенаты бекитиши керек.

Келечекке багытталган мыйзамдар

Жасалма интеллект тез өнүгүп жаткан технология болгондуктан, сунуш эрежелердин технологиялык өзгөрүүлөргө ыңгайлашуусуна мүмкүндүк берген келечекке багытталган мамилени камтыйт. AI тиркемелери рынокко чыгарылгандан кийин да ишенимдүү бойдон калышы керек. Бул камсыздоочулардан үзгүлтүксүз сапатты жана тобокелдиктерди башкарууну талап кылат.

ЕБ AI актысы

Мындай мыйзам AI алгоритмдерин өндүрүүчүлөрдү жана берүүчүлөрдү алардын иштеп чыгуулары үчүн жоопкерчиликтүү болууга мажбурлашы керек. Кирешелердин өсүшү жана көзөмөлсүз эксперименттер жөнүндө ойлонбостон, көбүрөөк социалдык болуу.

ЕБ AI актысы жасалма интеллекттин биринчи регламенти болуп саналат

Евробиримдиктин жасалма интеллект боюнча мыйзамы жасалма интеллект менен байланышкан маселелерди комплекстүү түрдө жөнгө салган дүйнөдөгү биринчи мыйзам болуп калат.

Бул жасалма интеллекттин зыян алып келүү потенциалынын негизинде жөнгө салуу үчүн революциялык чечим. Аны, мисалы, социалдык балл системаларында, реалдуу убакыт режиминде биометрикалык идентификациялоодо же аң-сезимсиз манипуляцияларда колдонууга тыюу салынат. Ошондой эле, мисалы, медициналык диагностикада же сот тутумунда тобокелдиги жогору болгон программалардын тобу аныкталган. Чектелген тобокелдикке ээ системалардын тобунда ачык-айкындык милдеттенмелери гана белгилениши керек.

ЕБ AI актысы

Сунушталган мыйзам долбоорунда бир нече жылчыктар жана өзгөчөлүктөр бар. Бул кемчиликтер Мыйзамдын AI сиздин жашооңузда жакшылык үчүн күч бойдон калышын камсыз кылуу мүмкүнчүлүгүн чектейт. Учурда, мисалы, сүрөт кечиктирилип тартылбаса же жоголгон балдарды табуу үчүн технология колдонулбаса, полициянын жүзүн таануусуна тыюу салынат.

Мындан тышкары, мыйзам ийкемдүү эмес. Эгерде эки жылдан кийин кооптуу AI тиркемеси күтүлбөгөн талаада колдонулса, мыйзамда аны "жогорку тобокелдик" катары белгилөө механизми каралган эмес.

AI актысы биринчи кезекте айкындуулук, окуяларды түшүндүрүү жана алар үчүн жоопкерчиликтүү болуу, башкача айтканда, тигил же бул окуяга ким же эмне жооптуу экенин аныктоо жөндөмдүүлүгү. AI актысы ошондой эле мүчө мамлекеттерге техникалык маселелерде жардам берүү үчүн жаңы AI органын түзүү үчүн укуктук негиз болуп калат.

Ошондой эле окуңуз: CUDAдан AIга: Ийгилик сырлары NVIDIA

Техникалык гиганттар Евробиримдиктин жасалма интеллект боюнча мыйзамдарын бузганы үчүн кымбат төлөшөт

Сунушталган директива AI колдонуудан келип чыккан зыяндын ордун толтуруу боюнча дооматтарга гана колдонулат, же AI тутуму берүүчү же колдонуучу сыяктуу адамдын күнөөсү боюнча натыйжа бере албаса. Бирок, Директива, эгерде зыян адамдын баалоосунан жана андан кийинки аракеттеринен же аракетсиздигинен улам келип чыккан болсо, жарандык жоопкерчилик боюнча талаптарга колдонулбайт, ал эми AI системасы тиешелүү актер тарабынан эске алынган маалыматты же кеңешти гана берген. Акыркы учурда, адамдын иш-аракетинен же аракетсиздигинен келип чыккан зыянды байкоого болот, анткени AI тутумунун натыйжасы адамдын аракеттери же аракетсиздиги менен зыяндын ортосунда эмес.

ЕБ AI актысы

Тыюу салуунун бузулушу айрым технологияларды жеткирүүчүлөргө финансылык санкцияларга алып келет. Алар 30 миллион еврого же компаниянын жылдык дүйнөлүк кирешесинин 6 пайызына жетиши мүмкүн.

Албетте, мындай чечимдердин кабыл алынышы Евробиримдикке мүчө мамлекеттердин чечимдерине жараша болот, бирок бул чындап эле тарыхый кадам деп азыртадан эле айта алабыз. Жасалма интеллект технологиясы экономиканы өнүктүрүү үчүн позитивдүү түрдө колдонула турган чоң потенциалга ээ. Ошол эле учурда көптөгөн коркунучтар бар. Ошондуктан, мыйзам аларды чектөөгө аракет кылат, бирок тыюу салбайт.

Жасалма интеллект боюнча жаңы мыйзамдарды кабыл алуудан тышкары, Евробиримдик ошондой эле АКШ менен технология боюнча ыктыярдуу жүрүм-турум кодексин иштеп чыгууга ниеттенүүдө, ал жакында даяр болот жана ушул сыяктуу принциптерди карманган башка өлкөлөргө сунушталышы мүмкүн.

Жасалма интеллект мыйзамы да Жасалма интеллект кеңсесин түзүү үчүн негиз болушу керек. Ал жаңы жобону ишке ашырууда мүчө мамлекеттерге жана алардын бийлик органдарына техникалык экспертиза аркылуу колдоо көрсөтүү, ошондой эле бир нече өлкөгө таасир эте турган көйгөйлөр пайда болгон учурда чечимдерди координациялоого көмөктөшүү үчүн арналган.

Ошондой эле окуңуз:

Yuri Svitlyk
Yuri Svitlyk
Карпат тоосунун уулу, математиканын таанылбаган генийи, "юрист"Microsoft, практикалык альтруист, сол-оң
- жарнак -
Кирүү
жөнүндө кабарлоо
конок

0 Comments
Камтылган сын-пикирлер
Бардык комментарийлерди көрүү
Жаңыртууларга жазылыңыз