Некатегоризовано

Наука иза четботова са вештачком интелигенцијом: Како функционишу ЦхатГПТ и Гоогле Бард

Summary

Последњих година, чет-ботови са вештачком интелигенцијом постали су све заступљенији, са примерима као што су ЦхатГПТ и Гоогле Бард који изазивају значајно интересовање због своје способности да обављају низ задатака. Ови софтверски алати за разговор нове генерације могу да произведу […]

Последњих година, чет-ботови са вештачком интелигенцијом постали су све заступљенији, са примерима као што су ЦхатГПТ и Гоогле Бард који изазивају значајно интересовање због своје способности да обављају низ задатака. Ови софтверски алати за разговор нове генерације могу да произведу креативну литературу, преузму веб претраге и памте сво светско знање тако да не морамо. Међутим, да бисте боље искористили ове алате, вреди се удубити у то како функционишу и у чему су добри (а шта нису).

ЦхатГПТ, Гоогле Бард и други ботови попут њих су примери великих језичких модела (ЛЛМ) који се обучавају на огромним количинама података. Иако су компаније које стоје иза њих често опрезне у откривању тачно одакле долазе подаци, истраживања сугеришу да извори укључују јавне форуме, веб странице и друге онлајн ресурсе као што су Википедија и сајтови за питања и одговоре.

За обраду ових података, ЛЛМ користе неуронске мреже, које су врста АИ мотора састављеног од више чворова и слојева. Неуронске мреже континуирано прилагођавају начин на који тумаче и дају смисао података на основу претходних резултата покушаја и грешака, а ЛЛМ користе специфичну архитектуру неуронске мреже која се зове трансформатор, која има неке трикове посебно погодне за обраду језика. ГПТ афтер Цхат је скраћеница од Генеративе Претраинед Трансформер.

Трансформатори могу да читају огромне количине текста, уочавају обрасце у томе како су речи и фразе међусобно повезани, а затим да предвиђају које речи би требало да следе. Механизам самопажње је једна од кључних иновација ових трансформатора и омогућава већи ниво разумевања него што би иначе био могућ. У суштини, то значи да се речи у реченици не разматрају изоловано, већ и у односу једна на другу на разне софистициране начине.

Међутим, у коду су уграђене неке насумице и варијације, што значи да одговор трансформатора цхатбот-а неће увек бити исти. Грешке се такође могу увући пошто ЛЛМ у основи не знају шта је тачно, а шта није. Они траже одговоре који изгледају уверљиво и природно и који се поклапају са подацима на којима су обучени. Због тога, бот можда неће увек изабрати највероватнију реч која долази следећа, већ другу или трећу највероватније. Ако се гурне предалеко, реченице престају да имају смисла, због чега су ЛЛМ у сталном стању самоанализе и самоисправљања.

ЛЛМ такође могу да произведу генерички или клишејски текст јер покушавају да синтетизују одговоре из огромних складишта постојећег текста. На неки начин, ови ботови избацују реченице на исти начин на који табела покушава да пронађе просек групе бројева, остављајући вам резултат који је потпуно неупадљив и на средини пута. Међутим, ако им се дају висококвалитетни резултати којима ће тежити, они могу даље да усаврше своје унутрашње неуронске мреже да би следећи пут добили боље резултате.

Обучени супервизори и крајњи корисници такође помажу у обуци ЛЛМ-а указујући на грешке и рангирајући одговоре на основу тога колико су добри. Ово је познато као „учење с појачавањем на повратним информацијама од људи“ (РЛХФ), и игра важну улогу у побољшању способности ових робота за ћаскање.

Како ЛЛМ буду све већи и сложенији, њихове могућности ће наставити да се побољшавају. ЦхатГПТ-4, на пример, садржи око 100 трилиона параметара, што је огроман скок у смислу разумевања односа између речи и знања како да их спојите да бисте створили одговор.

У закључку, док четботи са вештачком интелигенцијом као што су ЦхатГПТ и Гоогле Бард могу да опонашају текст за који су обучени и да производе текст који звучи природно и информисано, постоје ограничења у њиховим способностима. Они могу правити грешке и производити генерички или клишејски текст, али уз помоћ обучених супервизора и крајњих корисника, могу се побољшати кроз додатно учење на основу повратних информација људи. Како технологија буде напредовала, ЛЛМ ће вероватно постати још софистициранији и боље опремљен за обављање ширег спектра задатака. Важно је боље разумети како ЛЛМ функционишу како би боље искористили своје способности и ценили оно у чему су добри, а шта не.