Categories: Technologies

Депфайк деген эмне, ал канчалык кооптуу жана аны кантип таануу керек

Бүгүн биз кеңири жайылган жана кеңири таралган көрүнүшкө айланган deepfake жөнүндө сүйлөшөбүз. Бул технологиянын аркасында маалымат манипуляциясы жаңы деңгээлге чыкты.

Жаңы жылдык билдирүү уктуруу учурунда каныша Элизабеттин үстөл үстүндө бийлеп жатканын көрдүңүз беле? Же Ким Чен Ындын демократия тууралуу сүйлөгөнүн уктуңбу же анын өлүмү тууралуу айткан Сальвадор Далиге суктандыңбы (эмне үчүн ал буга ишенбейт)?

Бул укмуштуудай видеолордун бардыгынын бир жалпылыгы бар – алар жасалма. Deepfake - бул видео, аудио жана фото түрүндөгү жалган маалыматтарды түзүү жана жарыялоо ыкмасы. Мындай материалдарды табуу оңой болуп баратат, ошондуктан биз сиздер үчүн Интернетте терең фейк видеолорду түзүү, таануу жана издөө боюнча нускаманы даярдадык.

Ошондой эле окуңуз: Эртеңки блокчейндер: жөнөкөй сөз менен айтканда, криптовалютанын келечеги

Deepfake - бул эмне?

Deepfake (Deepfake) чындыгында, чыныгы эмес, жасалма, башкача айтканда, жасалма болгон фото, видео же аудио материал. Deepfake (эки сөздүн айкалышы - терең үйрөнүү "терең үйрөнүү" жана жасалма "фейк") видеолордо жана башка санариптик медиа материалдарында бир адамдын экинчи адамга окшоштугун түзүү үчүн терең үйрөнүү үчүн жасалма интеллектти (AI) колдонот. Ал чыныгы үн, үн, видео же сүрөт үлгүлөрүнө негизделген алгоритмдер менен түзүлөт. Алгоритм көптөгөн түрдүү жерлерден тандалган маалыматты алып, анан аны бир материалга бириктирет. Натыйжада, ар кандай реалдуу маалыматтардын жыйындысына негизделген жаңы (жалган) нерсе түзүлөт.

Бирок бул баары эмес. Deepfake ошондой эле сүрөттү нөлдөн баштап, мисалы, эч качан болбогон каармандардын жүзүн түзүү менен "боёй алат".

Мындай акциялардын максаты эмнеде? Башка нерселер менен катар, Deepfake Интернетте туура эмес маалыматты жайылтуу (мисалы, саясий ишмерлер же окуялар жөнүндө), уурдоо (мисалы, үн буйруктарын жасалмалоо) жана порнографияны (атактуу адамдар менен тартылган тасмалар - deepfake порно) түзүү үчүн колдонулат. Ал билим берүү жана көңүл ачуу максатында да колдонсо болот.

Ошондой эле окуңуз: Жөнөкөй сөз менен айтканда, кванттык компьютерлер жөнүндө

Deepfake - Бул кантип иштейт?

Жалпысынан, deepfake материалды түзүүнүн эки жолу бар. Биринчи ыкма эки алгоритмди колдонот. Биринчиден, биринчи (кодер) эки сүрөттөлүштүн жалпы белгилерин издейт (бирге бириктириле тургандар), андан кийин экинчиси (декодер) аларды жаңы түзүлгөн сүрөткө өткөрүп бере алат. Мисалы, биздей актер кыймылдай турган видео жараткыбыз келсе, коддогуч кыймылды биз бийлеп жаткан видеодон алат, ал эми декодер ансыз деле биздин жүзүбүздү актёрдун жүзү менен алмаштырып, биздин кыймыл-аракеттерибизди кайталайт. . Бул жерде негизги нерсе - жаңы сүрөткө көчүрүлгөн тандалган аракеттер (мисалы, кыймылдар, жаңсоолор, мимикалар).

Экинчи жол - эки алгоритм чогуу иштеген генеративдик атаандаштык тармактар ​​(GANs) аркылуу. Биринчиси генератор деп аталат, анткени ал жалпы маалыматты колдонуу менен анын айырмалоочу белгилерин (адамдын денеси, жүзү, көзү бар) бириктирген образдарды (мисалы, адамдын образын) жаратат. Экинчи алгоритм генератор тарабынан берилген сүрөттөрдүн чын же туура эмес экендигин баалоочу дискриминатор.

Убакыттын өтүшү менен эки алгоритм тең өнүккөндүктөн, алар үйрөнүп, өздөрүн өркүндөтүшөт. Эгерде генератор дискриминатор жасалма сүрөттү тааныбай тургандай кылып үйрөтүлсө (аны чыныгы деп эсептесе), процесс аяктады.

Көптөгөн жасалма программалык камсыздоону скрипттер, программалар жана коддор үчүн ачык булактуу GitHub коомунан тапса болот. Бул программалардын айрымдары көңүл ачуу максатында гана колдонулат, андыктан терең фейк түзүүгө тыюу салынбайт, бирок алардын көбү кылмыштуу максатта да колдонулушу мүмкүн.

Көптөгөн эксперттер келечекте технологиялардын өнүгүшү менен терең фейктер бир топ татаалдашып, шайлоого кийлигишүү, саясий чыңалууну жана криминалдык аракеттер менен байланышкан коом үчүн олуттуу коркунучтарды жаратышы мүмкүн деп эсептешет.

Ошондой эле окуңуз:

Deepfake коркунучу - качантан бери бар?

Мындай фейк маалымат биринчи жолу 2017-жылы пайда болгон. Анда колдонуучу лакап ат болуп саналат deepfake Reddit сайтында белгилүү адамдар тартылган бир нече порнографиялык тасмалар жарыяланган Скарлетт Йоханссон, Гал Гадот жана Тейлор Свифт. Ошондон бери бул тармак тездик менен өнүгүп келе жатат, анткени дээрлик ар бир адам терең фейк тасмаларды тарта алат.

Акыркы жылдары терең фейкинг технологиясы ушунчалык өнүккөндүктөн, ал ойдон чыгарылган видеобу же чыныгы адамдардын жазуусубу, аны аныктоо кыйын болуп баратат. Мисал катары Елизавета IIнин билдирүүсү камтылган видео же Барак Обаманын сүйлөгөн сөзү болушу мүмкүн, ал тез арада көптөгөн сайттарда жарыяланган. АКШнын мурдагы президентинин билдирүүсү камтылган видеодо интернетте жарыяланган туура эмес маалымат жана фейк жаңылыктар себеп болушу мүмкүн болгон глобалдык коркунучтар тууралуу айтылат. BuzzFeedVideos каналы жарыялаган материалда америкалык режиссер жана актёр Джордан Пил АКШнын 44-президентинин үнү болуп калды. Бирок, учурда жасалма интеллект жасалма тасмага тартылышы керек болгон адамдын архивдик жазууларынын негизинде үн чыгарууга жөндөмдүү.

Мындай өнүккөн технологиялар келечекте киберкылмышкерлердин жана интернет алдамчылардын колунда кооптуу курал болуп калышы мүмкүн. Маанилүү саясатчылардын сүйлөгөн сөздөрүнүн жасалма видеотасмаларынын жарыяланышы эл аралык деңгээлде реалдуу зыян алып келиши мүмкүн. Deepfake технологиясына негизделген мындай тасмалар дипломатиялык конфликттерди жана чатактарды жаратышы мүмкүн, ошондуктан коомдук пикирге жана адамдардын жүрүм-турумуна таасир этет.

Дагы бир потенциалдуу коркунуч – бул виртуалдык мейкиндикте ар дайым эң көп трафикти жараткан чоңдорго арналган мазмун. Deepfake технологиясы интернетке ушунчалык тез кирип кеткени таң калыштуу эмес. Голландиялык Deeptrace киберкоопсуздук компаниясынын отчетуна ылайык, deepfake технологиясы менен жасалган ойдон чыгарылган видеолордун 96%ы ушундай темалардагы мазмун. Мындай материалдарды даярдоодо көбүнчө кино жылдыздарынын, спортчулардын, ал тургай саясатчылардын жана бийлик өкүлдөрүнүн сүрөттөрү колдонулат.

Ошондой эле окуңуз: Эмне үчүн космостук миссия каалаган убакта уча албайт: учуруу терезеси деген эмне?

Кантип терең фейк жасоо керек?

Кимде-ким терең фейк видеолорду жасай алса, аларды үйдө да жасаса болобу? Албетте, ооба, бирок алардын сапаты, албетте, кемчиликсиз болбойт. Мындай видеолорду түзүү чоң эсептөө ресурстарын жана күчтүү видеокарталарды талап кылат. Бизде көбүнчө үйдөгү компьютерлер жетишсиз жана иштеп чыгуу процесси бир нече жумага созулушу мүмкүн. Тасмалардын сапаты да көп нерсени каалабай койбойт - көзгө көрүнгөн каталар болот, ооздун кыймылы үнгө дал келбей калышы мүмкүн, "эски" мазмун "жаңы" менен дал келген көзгө көрүнгөн жерлер пайда болот.

Бирок, эгер биз сүрөттү бир аз "тиштиргибиз" же кыска терең фейк видео тарткыбыз келсе, бул үчүн программаны түздөн-түз смартфонго жүктөп алса болот. Колдонууга абдан оңой программа бир нече мүнөттүн ичинде сырткы көрүнүштөгү кемчиликтерди жок кылат, сизди тандалган атактуу адамга айлантат же итиңизге адам үнү менен сүйлөөгө мүмкүнчүлүк берет.

Ошондой эле окуңуз:

Deepfake кантип таануу керек?

Кесиптик терең фейк видеолорун аныктоо барган сайын кыйындап баратат. Адегенде алгоритмдердин негизги жүрүм-туруму (мисалы, көздүн ирмеми) менен көйгөйлөрү бар жана тасманын жасалма экени дароо айкын болгон. Бул ката азыр оңдолду. Жасалма каармандар көздөрүн ирмеп, табигый кыймылдап, эркин сүйлөйт. Бирок, кээде алар дагы эле табигый көз кыймылы менен көйгөйлөр бар.

Демек, терең фейкти кантип аныктоого болот? Видеону көргөндө эмнелерге көңүл бурушуңуз керек:

  • Үн ооздун кыймылына шайкеш келеби? Кээде алар такыр дал келбей калат, ал эми видеодогу адам эриндерин үнгө салыштырмалуу кечигип кыймылдатат же сөздөрдү туура эмес айтып берет.
  • Табигый эмес көрүнгөн ар кандай көрүнүштөр. Бул жерде кеп башка нерселер менен катар бүт дененин же баштын тулкуга карата абалы, жарыктын предметтерге туура эмес чагылышы, зергерчиликте жарыктын туура эмес чагылышы ж.б.у.с. Теринин табигый эмес түсү да тасманын жасалма экендигинин белгиси болушу мүмкүн.
  • Аудио жана видео сапаты. Алардын ортосундагы айырма терең фейкти аныктоого жардам берет. Адатта саундтрек сапаты начар.
  • Сүрөттүн бузулушу. Көбүнчө, алар дененин жана баштын кесилишинде пайда болот. Атактуулардын башын башка денеге "жабыштырып" койгондо моюндун аймагында бүдөмүк пайда болушу мүмкүн. Кээде кадрды өткөрүп жиберүү (үзүлүү) жана кадр каталары (ар кандай жарык бурчу, түрү же багыты) бар.
  • Видео учурунда хэштегди өзгөртүү бизде терең фейк видео бар экенин да билдириши мүмкүн.

Материалдарды deepfake көз карашынан карап жатканда, өзүңүздүн сезимдериңизге таянуу керек. Кээде бир нерсе «туура эмес» деген ойдо болобуз. Бул, башка нерселер менен катар, экранда сүрөттөлгөн адамдын эмоциялары мимика же үн тондору бизге дал келбеген учурда болот. Бул дагы видеонун жасалма болушу мүмкүн экенин көрсөтүп турат.

Ошондой эле кызыктуу:

Өзүңүздү терең фейктен кантип коргоо керек?

Терең жасалма алдамчылыкка жол бербөө үчүн, эксперттер төмөнкү кадамдарды жасоону кеңеш беришет:

  • Үй-бүлө мүчөлөрү же кесиптештер сыяктуу жакындарыңыз менен жашыруун сөз же ураан түзүңүз, алар видео же жазуу менен кырдаалдын чындыгын далилдей алышат. Бул жагдайдын туура эместигин тез текшерүүгө жана, мисалы, акча талап кылуудан качууга мүмкүндүк берет.
  • Туугандары же кесиптештери менен эч качан билдирүүлөр аркылуу, мисалы, социалдык тармактарда же SMS аркылуу суралбай турган маалыматтардын тизмеси боюнча макулдашып алыңыз. Бардык кызыкдар тараптар коркунучтун чыныгы масштабы жөнүндө кабардар болушу зарыл.
  • Ар бир суроо-талапты текшерүү үчүн көп факторлуу аутентификация каналдарын ишке ашыруу. Эгерде байланыш тексттик билдирүү менен башталса, анда маалыматты тастыктоонун эң коопсуз жолу - алдын ала макулдашылган жана коопсуз байланыш каналы аркылуу сүйлөшүү түрүндө билдирүүнү жөнөтүүчү менен байланышуу.
  • Коопсуздуктун компетенттүүлүгүн тынымсыз өркүндөтүү, мисалы, коопсуздук жана киберкылмыштуулук боюнча кызматкерлерди окутуу түрүндө. Deepfake деген эмне экенин жана бул коркунучка кантип каршы туруу керектиги жөнүндө маалымдуулукту жогорулатуу.
  • Маалыматтык-коммуникациялык технологиялар (МКТ) чөйрөлөрүндө коопсуздук системаларын колдоо жана өнүктүрүү.

Сиз терең фейкти кайдан жолуктура аласыз?

Жасалма материалды ал чоң аудиторияга, б.а. потенциалдуу терең фейк аудиториясына жете турган жерден тапса болот. Facebook, Instagram, TikTok жана башка социалдык медиа сайттары ушул сыяктуу нерселерге толгон.

Бул укмуштуудай видеолор гана эмес, ошондой эле "тазаланган" фото жана аудио жазуулар. Кээ бир чыныгы атактуулардын профилдери кээде толугу менен терең фейк нерселерге толтурулган!

Бул терең фейкти таба турган жалгыз жер эмес. Смартфонго арналган тиркеме да ушул технологиянын негизинде түзүлгөн, ал сүрөткө мурут жана сакал коюуга же башка атайын эффекттерди кошууга мүмкүндүк берет (мисалы, бир нече ондогон жылдарга картаюу). Демек, досторуңуздан алган акыркы сүрөтүңүз бир аз "чачпай" болуп калышы мүмкүн.

Ошондой эле кызыктуу:

Deepfake тасмалары порнографиялык гана эмес

Deepfake колдонуу оң жана терс болушу мүмкүн. Deepfake тасмалары ойноок же кызыктуу болушу мүмкүн. Бул жерде жаңы жылдык билдирүү учурунда каныша Елизаветанын дасторкон үстүндө бийлеген видеосун айта кетели. Смартфондорубуздагы deepfake тиркемеси менен жасаган фото модификациялардын көбүнүн максаты да ушул. Бул күлкүлүү жана кызыктуу болушу керек.

Deepfake материалдары тарбиялык ролду да ойной алат, мисалы, буга чейин өлгөн сүрөтчүлөрдү, ырчыларды же музыканттарды "тирилтилет". Кээ бир музейлер, атап айтканда, Флоридадагы Сальвадор Дали музейи бул технологияны колдонушат, мында зыяратчыларга сүрөтчүнүн өзү жасаган эмгектери менен «сунушталат», алар менен баарлашып, ал тургай сүрөткө да түшсө болот.

Deepfake технологиясы үн генераторлорунда колдонулат - сүйлөө жөндөмүн жоготкон адамдар үчүн арналган түзүлүштөр. Ошолордун аркасы менен мындай адамдар азыр да биз менен өз үнү менен сүйлөшө алышат. Вэл Килмердин кекиртек рагына кабылган үнү Top Gun: Maverick тасмасында үлгү болгон.

Тилекке каршы, бизде терең фактыны терс колдонуунун көптөгөн мисалдары бар. Саясат мисалы, мындай жалган маалымат коомдук ишмерлерди дискредитациялоо, биржага, экономикага же шайлоонун натыйжаларына, атүгүл согуш учурундагы согуш аракеттерине таасир этүү сыяктуу кеңири масштабдуу, глобалдуу кесепеттерге алып келиши мүмкүн. Жакшы даярдалган жазуу коомдук пикирди башкарууну жеңилдетет. Технологиялардын прогрессивдүү өнүгүшү чыныгы материалдарды жасалмалардан айырмалоону ого бетер кыйындатат. Демек, бул коомдук ишенимдин жана маалыматтык баш аламандыктын кулашына карай жасалган кадам.

Deepfake видеолору, биз айтып өткөндөй, порно индустриясында кеңири таралган. Көбүнчө өзгөртүүлөр порно актрисанын/актёрдун жүзүн атактуулардын же кино жылдыздарынын жүзү менен алмаштыруудан турат, албетте, алардын макулдугусуз.

Ошондой эле окуңуз: Башкаруучу космостук миссиялар: Эмне үчүн Жерге кайтып келүү дагы эле көйгөй болуп саналат?

Deepfake - бул баарыбыз үчүн реалдуу коркунуч

Deepfake актёрлор жана саясатчылар үчүн гана көйгөй эмес. Ар бир адам жасалма мазмунга таасир этиши мүмкүн. Шантаждын жана опузалоонун элементи болуп биз кылмыш кылган же түшүнүксүз кырдаалга туш болгон ойдон чыгарылган видео болушу мүмкүн - же сиз төлөйсүз, же биз ачыкка чыгарабыз. Эгер сиз бизнесте иштесеңиз, анда компанияны контрагенттердин арасында дискредитациялоо үчүн deepfake колдонуу коркунучу бар экенин түшүнүшүңүз керек.

Манипуляциялык материалдардын көлөмүнүн көбөйүшү социалдык ишенимге жана берилген маалыматка болгон ишенимге да таасирин тийгизиши мүмкүн. Сотто далил болгон тасма жалган болуп, жаңылыктар болбогон окуяларды чагылдырып жатса, кантип ишенүүгө болот?

Каармандары башка адамдарга окшош болгон зыяндуу сүрөттү, аудио жазууну же тасманы түзүүгө мүмкүндүк берүүчү технология киберкылмышкерлердин коркунучунун жаңы деңгээли. Айрыкча, социалдык тармактарда алар терең фейктерди түзүү үчүн дээрлик чексиз булактарды тарта алышат.

Машина үйрөнүү программасы издей алат Facebook Апакем Instagram, мисалы, потенциалдуу "актерлордун" кызыктуу сүрөттөрүн же видеолорун кармаңыз. Мунун негизинде адамдын абдан ачык үнү, сүрөтү жана видеосу түзүлүшү мүмкүн, бирок атайын түзүлгөн жасалма кайрылуу менен, мисалы, олуттуу кыйынчылыкка туш болгонду - ала качуунун же кырсыктын курмандыгы катары. Кийинки этапта «жабырлануучунун» жакындарына багытталган, мисалы, каржылык жардам сурап жалган кайрылуу түзүлөт.

Ошондой эле окуңуз: Джеймс Уэбб космостук телескобу: байкоо үчүн 10 бутага

Deepfake менен күрөш

Жалган маалыматтын агымы ушунчалык көп болгондуктан, көптөгөн социалдык тармактар ​​терең фейктерге каршы күрөшүүнү чечишти. Facebook і Twitter жасалма видеолорду таап, аларды автоматтык түрдө жок кылууга аракет кыл. Ири корпорациялар (анын ичинде Microsoft же Amazon) жасалма мазмунду аныктай турган программалык камсыздоого инвестиция салып жатышат. Окумуштуулар да бул маселени чечүүнүн үстүндө иштеп жатышат.

Бирок, смартфондун тиркемеси жасалма тасма жаратууга жетиштүү болгон кырдаалда терең фейк менен күрөшүү шамал тегирмендери менен күрөшүүгө окшош. Маалыматты манипуляциялоо же башка бирөөнүн имиджин ушундай жол менен колдонуу кесепеттерин аныктай турган укуктук нормалар да жок.

Deepfake барган сайын популярдуу болуп баратат жана аны чындыктан айырмалоо барган сайын кыйын болуп баратат. Бул адамдын кыймылын жана жаңсоолорун жакшыраак туурай алган технологиялардын өркүндөтүлүшүнө байланыштуу. Deepfakes жакшы максаттарда колдонулушу мүмкүн, мисалы, билим берүү материалдарын түзүү же кекиртек операциясынан кийин үнүн жоготкон адамдарга жардам берүү, бирок алар хакерлердин, шантажчылардын жана интернет троллдорунун куралы.

Андыктан, эгер сиз Интернеттен укмуштуудай видеону кайрадан кезиктирсеңиз, алгач анын кээде өзгөртүлгөнүн же жасалма экенин текшериңиз. Балким сиз карап жаткан нерсе эч качан чындыгында болгон эмес!

Ошондой эле окуңуз:

Бирок, Украинада согуш жүрүп жатканын унутпаңыз. Эгер сиз Украинага орус баскынчылары менен күрөшүүгө жардам бергиңиз келсе, мунун эң жакшы жолу - Украинанын Куралдуу күчтөрүнө жардам берүү. Savelife же расмий баракчасы аркылуу NBU.

Share
Yuri Svitlyk

Карпат тоосунун уулу, математиканын таанылбаган генийи, "юрист"Microsoft, практикалык альтруист, сол-оң

Таштап Жооп

Сиздин электрондук почтанын дареги жарыяланбайт. Милдеттүү талаалар белгиленген*