Сем Алтман, директорот на американската компанија „Опен-АИ“, што стои зад развојот на големиот јазичен модел Чет-ГПТ, неговиот наследник ГПТ-4 и моделот за правење слики ДАЛЛ-Е, неодамна на блогот на компанијата го објави својот план за развој на Општа вештачка интелигенција (АГИ).

Што е Чет-ГПТ?

За почеток, накратко да се потсетиме што значат горенаведените термини - Чет-ГПТ, ДАЛЛ-Е и Општа вештачка интелигенција.

Чет-ГПТ е напреден јазичен модел којшто користи вештачка интелигенција и „длабоко учење“ за да одговара на прашања, да пишува текстови и да разговара со луѓе на начин што е сличен на човечкиот разговор. Тој е обучен за голем обем на податоци, може да комуницира на многу јазици, да пишува есеи на дадени теми, да врши помалку напорно кодирање, да преведува, па дури и да решава одредени училишни задачи и тестови.

Моделот се здоби со огромна популарност за многу кратко време. Веќе првите пет дена по објавувањето лани во ноември имаше повеќе од еден милион корисници, а во јануари ја надмина бројката од 100 милиони.

Во светот на крајот на 2022 година, тоа веќе предизвика голем ентузијазам, беше оценет како потенцијално многу корисна алатка, но предизвика и загриженост дека може да им одземе многу работни места на луѓето, како, на пр. кодирање, пишување текстови, одговарање прашања во услуги за клиенти, пишување поедноставни медиумски вести и изготвување правни документи.

Тоа, исто така почна голем натпревар меѓу конкурентите во развојот и примената на јазичните модели. Гугл, на пример, неодамна го претстави Бард - неговиот чет-бот за вештачка интелигенција којшто работи со сопствен Јазичен модел за апликации за дијалог (ЛаМДА).

Што е ГПТ-4?

ГПТ-4 е подобрена верзија на Чет-ГПТ заснована на ГПТ-3.5. Покрај текстот, може да прифаќа и слики и видеа. Така, на пр. може да препорача различни рецепти врз основа на фотографија од храната што луѓето ја имаат во нивниот фрижидер.

Тој значително се подобри во општите знаења и вештините за решавање проблеми. За илустрација, Опен-АИ тврди дека Чет-ГПТ постигнал резултати во првите 10 отсто од Униформниот правосуден испит на САД (УБЕ), што ги тестира знаењата и вештините што секој адвокат треба да ги има пред да добие лиценца за адвокатура, и ГПТ-4 е меѓу првите 10 отсто.

Што е ДАЛЛ-Е?

ДАЛЛ-Е е генеративен модел на вештачка интелигенција којшто користи „длабоко учење“ за да оздаде слики од текст. На пр., ако на тој модел му го дадете текстуалниот опис „направи небо на Марс во стилот на Ван Гог“, тој ќе создаде слика што одговара на тој опис.

ДАЛЛ-Е има потенцијал за апликации во различни области, вклучувајќи дизајн, уметност и архитектура. Во овој контекст, тој би можел да се користи како алатка, но може да стане и замена за луѓето во некои области од овие професии.

Што е вештачка општа интелигенција (АГИ)?

Терминот АГИ се однесува на вештачка интелигенција којашто би имала способност да извршува широк опсег задачи слични на оние што ги извршуваат луѓето. Ова би вклучувало способност за учење, прилагодување на нови состојби, препознавање шеми, донесување одлуки, размислување логично и креативно, итн. или решавање на математички задачи.

АГИ генерално се смета за крајна цел во развојот на вештачката интелигенција бидејќи таков систем може да биде исклучително разновиден и корисен за решавање на широк спектар проблеми.

Како Опен-АИ го објави развојот на вештачката општа интелигенција?

Како што наведовме на самиот почеток, на крајот на февруари 2023 година, Алтман на својот блог објави план за развој на општа вештачка интелигенција.

Во него, тој зборува многу општо за чекорите и насоките што Опен-АИ има намера да ги преземе во развојот на АГИ. Во самиот вовед, тој наведува дека мисијата на компанијата е „да се погрижи АГИ - системите коишто се генерално попаметни од луѓето - да имаат корист за целото човештво“.

Авторот ги уверува читателите дека тоа ќе го направи многу внимателно бидејќи АГИ, покрај големите придобивки, ќе има и потенцијал за „сериозни опасности од злоупотреба, драстични несреќи и социјални нарушувања“.

„Бидејќи предноста на АГИ е толку голема, не веруваме дека е можно или пожелно општеството засекогаш да го запре својот развој. Наместо тоа, општеството и програмерите на АГИ треба да сфатат како тоа да го направат правилно“, истакнува Алтман.

Во остатокот од објвата, тој накратко ги презентира основните принципи на Опен-АИ во однос на АГИ.

„Иако не можеме да предвидиме што точно ќе се случи и, се разбира, нашиот сегашен напредок може да удри во ѕид, можеме да ги артикулираме принципите за коишто најмногу се грижиме:

1. Сакаме АГИ да го поттикне човештвото да постигне максимален напредок во Вселената. Не очекуваме иднината да биде безусловна утопија, но сакаме да го максимизираме доброто и да го минимизираме лошото, и да се осигураме дека АГИ ќе го овозможи тоа за човештвото.

2. Сакаме придобивките, пристапот и управувањето на АГИ да бидат широко и правично споделени.

3. Сакаме успешно да управуваме со огромните ризици. Соочени со овие ризици, препознаваме дека она што во теорија изгледа правилно е често почудно отколку што се очекуваше во пракса. Веруваме дека мора постојано да учиме и да се прилагодуваме со воведување помалку моќни верзии на технологија за да ги минимизираме сценаријата каде што ни останува само една опција да ги исправиме работите“, пишува Алтман.

Блогот навестува сомнителна „технолошка утопија“

На почетокот, сѐ во оваа објава може да изгледа прекрасно и прекрасно. Развојот на АГИ ќе овозможи невиден напредок на многу полиња, вклучително науката, технологијата и медицината, а со тоа и невиден просперитет. Значи, АГИ во комбинација со роботи и автоматизирани машини ќе им обезбеди на луѓето доволно ресурси за повеќе од удобен живот.

Но, тука има неколку крупни проблеми.

Така, првиот проблем е што, според критичарите, нема многу причини да се верува во добронамерноста и филантропијата на Алтман и Опен-АИ. Имено, се истакнува дека Опен-АИ денес е сѐ што вети дека никогаш нема да биде - стана корпоративно, затворено во смисла на криење на својата технологија и кодови и е ориентирана кон заработка.

Во својата основачка изјава, компанијата објави посветеност на истражување неограничено од „потребата да се генерираат финансиски приноси“, со цел „да се унапреди дигиталната интелигенција на начин што најверојатно ќе има корист за човештвото како целина“. На нивниот блог тогаш истакнаа: „Бидејќи нашето истражување е ослободено од финансиски обврски, можеме подобро да се сосредоточиме на позитивното влијание врз луѓето“. Исто така, се велеше дека сите истражувачи на компанијата ќе бидат охрабрени да „споделат трудови, објави на блогови или кодови и патенти (ако ги има) со светот“.

Напротив, на почетокот на 2019 година Опен-АИ го напушти својот непрофитен статус и воспостави сектор „ограничен профит“ каде што може да прима инвестиции и да им обезбеди на вложувачите заработка ограничена на 100 пати поголем од вложениот износ. Одлуката на компанијата најверојатно е резултат на желбата на менаџментот да се натпреварува со големите технолошки соперници како Гугл. Кратко потоа, компанијата доби инвестиција од милијарда долари од Мајкрософт. Кон крајот на март 2023 година, Мајкрософт објави дека ќе продолжи да инвестира милијарди повеќе во системи како што се Чет-ГПТ и ДАЛЛ-Е.

Претерани ветувања и очекувања

Овде доаѓаме до вториот проблем, а тоа е дека Опен-АИ, наводно, создаде нереални очекувања со својата рекламна кампања и слава, односно со надувување на можностите на Чет-ГПТ, со што привлече огромни средства и огромен број корисници.

Дури и самиот Алтман го призна ова во јануари кога рече дека ГПТ-4, наследникот на ГПТ-3 моделот, на којшто се заснова Чет-ГПТ, може да заврши како огромно разочарување. Тој рече дека „луѓето молат да бидат разочарани и ќе бидат“ разочарани од претстојниот јазичен модел. - Немаме вистинска (вештачка општа интелигенција), а тоа е нешто што се очекува од нас, предупреди тој.

Загрижености околу лажните информации и халуцинации

Следниот проблем е што Чет-ГПТ засега е сѐ уште многу несигурен. Тој создава лажни информации, нуди непостоечки или погрешни извори на информации и/или линкови до нив итн. А, стручњаците велат дека тој има тенденција „да халуцинира“, односно да измислува и нуди содржини кои немаат врска со вистината, па дури и непостоечки или лажни линкови кои треба да поткрепат вакви лажни информации со веродостојни извори и научни студии.

Бинг, кој работи со ГПТ-4, сепак дава подобри резултати. Ако ништо друго, тој ги истакна точните основни информации што може да се најдат. Но, тоа не е нешто посебно за некој што сака посериозно да истражува нечиј лик и дело.

Се поставува прашањето како да се има доверба во моделите кои страдаат од вакви проблеми и ограничувања.

Јан Шнајдер, професор на ФЕР во Загреб, кој се занимава со јазични модели како што е ГПТ, вели дека Чет-ГПТ е добар во генерирање кохезивен текст, којшто е флуиден и ги почитува граматичките и семантичките правила на јазикот.

Шнајдер е меѓу оние кои веруваат дека АГИ можеби ќе мора да биде „невронска“ алатка.

- Тоа можеби е вистина, вели тој. - Ние сме доказ за тоа. Засега немаме докази за друго. Но, патот до АГИ не мора нужно да биде ист како во биолошката еволуција, која оптимизирала различни работи за нашите потреби за преживување во специфични услови, за на крајот да го создаде мозокот што го имаме. Авион често се користи како пример овде. На почетокот се обидувавме да имитираме птици и да мафтаме со нивните криља за да летаме. Но, се покажа дека тоа можеме да го направиме многу подобро на поинаков начин, со обликување на крилјата, без мавтање. Вештачката интелигенција на крајот ќе стигне до АГИ на еден или друг начин. Овој чекор што го постигна Чет-ГПТ во функцијата за пребарување беше практично очекуван. Не треба да бидеме нетрпеливи. Никој не може да каже кога АГИ ќе биде достапен. Вештачката интелигенција понекогаш е инспирирана од човечките когнитивни способности и нивниот развој, а некогаш и не е, изјави професорот.



Автор: Администратор
Објавено на: 06/04/2023 11:58