Root NationЖаңылыктарIT жаңылыктарыТехнология боюнча эксперттер AI эксперименттерин токтотууну талап кылышууда

Технология боюнча эксперттер AI эксперименттерин токтотууну талап кылышууда

-

Технология лидерлери жана көрүнүктүү AI изилдөөчүлөрү кол коюшту ачык кат, бул AI лабораторияларын жана компанияларды өз иштерин "дароо токтотууга" чакырат.

Кол коюучулар, анын ичинде Стив Возняк жана Илон Маск, тобокелдиктер чегинен чыккан технологияларды өндүрүүдөн кеминде алты айлык тыныгууну талап кылат дегенге макул. GPT-4. Бул азыр бар AI тутумдарынан кубаныч жана канааттануу алуу жана адамдарга аларга ыңгайлашууга жана алардын пайдалуу экенин көрүүгө мүмкүнчүлүк берүү.

Технология лидерлери жана эксперттер AI эксперименттерин токтотууга чакырышууда

Катта AI системаларынын коопсуздугун камсыз кылуу үчүн этияттык жана алдын ала ойлонуу керек, бирок аларга көңүл бурулбай жатканы кошумчаланат. Жазуу же визуалдык билдирүүлөргө текст менен жооп бере ала турган жаңы OpenAI моделине шилтеме GPT-4, компаниялар технологияны колдонуу менен татаал чат системаларын куруу үчүн жарышууда. Мисал, Microsoft жакында анын жаңыртылган Bing издөө системасы GPT-4 моделинде 7 жумадан ашык иштеп жатканын ырастады жана Google жакында расмий түрдө тааныштырды Бард – LaMDAга негизделген өзүнүн генеративдик жасалма интеллект системасы.

AI жөнүндө тынчсыздануулар көптөн бери бар, бирок эң алдыңкы технологияны кабыл алуу жарышы көрүнүп турат Жасалма интеллект биринчиси кооптондурат. "Акыркы айларда AI лабораториялары эч ким, атүгүл алардын авторлору да түшүнө, алдын ала же ишенимдүү башкара албаган күчтүү санариптик акылды иштеп чыгуу жана ишке ашыруу үчүн көзөмөлдөнбөгөн жарышка аралашты", - деп айтылат катта.

Технология лидерлери жана эксперттер AI эксперименттерин токтотууга чакырышууда

Кат глобалдык катастрофалык жана экзистенциалдык тобокелдиктерди жана жаңы технологияларды, атап айтканда AIди кыянаттык менен пайдаланууну минималдаштыруу үчүн иштеген Future of Life Institute (FLI) коммерциялык эмес уюму тарабынан жарыяланган. Буга чейин Маск AI коопсуздугун изилдөө үчүн FLIга 10 миллион доллар берген. Ага жана Возняктан тышкары кол койгондордун арасында AI тармагындагы бир катар дүйнөлүк лидерлер бар, мисалы, AI жана санарип саясат борборунун президенти Марк Ротенберг, MIT физиги жана FLI президенти Макс Тегмарк жана жазуучу Ювал Ноа Харари.

Харари ошондой эле өткөн аптада Нью-Йорк Таймс гезитине авторлош болгон макаланын авторлору менен байланышкан тобокелдиктерди эскерткен. Жасалма интеллект, анын үстүндө Гумандуу технологиялар борборунун негиздөөчүлөрү жана башка ачык катка кол койгондор Тристан Харрис жана Аза Раскин аны менен иштешкен.

Чакыруу өткөн жылы 700дөн ашык машина үйрөнүү изилдөөчүлөрүнүн сурамжылоосунан кийин жасалды, анын жарымына жакыны AIдан "өтө жаман кесепеттерге", анын ичинде адамдын жок болушуна 10% га жакын экенин айтышты. AI изилдөөлөрүнүн коопсуздугу жөнүндө суралганда, респонденттердин 68% көбүрөөк же көп нерсени жасоо керек деп айтышкан.

Ошондой эле окуңуз:

Булактарыхка
Кирүү
жөнүндө кабарлоо
конок

0 Comments
Камтылган сын-пикирлер
Бардык комментарийлерди көрүү
Жаңыртууларга жазылыңыз