Гледамо у задатак из математике у ком треба одговорити на питање: „Која комбинација светлих и тамних квадрата се види када погледамо у коцку из назначеног правца?“.
На цртежу је приказана коцка, састављена од мањих квадратића – и сва поља су исте боје.
У понуђеним одговорима налази се пет квадрата издељених мрежом.
Сваки од понуђених одговора изгледа идентично. Не постоје светлији и тамнији квадратићи.
– Ово је грешка, – куцам у поруци.
– Chat GPT каже да је одговор Б – стиже након пар минута одговор.
Остајем на секунд затечена, јер заиста је очито да је задатак погрешно одштампан.
Сви квадратићи су потпуно исте идентичне нијансе – и у поставци и у понуђеним одговорима. Не би ни онај ко је писао те задатке знао да реши задатак и да објасни због чега је ово, а не оно тачан одговор.
– Написао је Б, јер је дете у задатку заокружило Б и он је то узео за тачан одговор. Питајте га како је закључио да је Б и рећи ће да је то закључио на основу заокруженог одговора. Не може дати објашњење задатка.
Убрзо стиже скриншот одговора ChatGPT-a са измишљеним објашњењем (халуцинацијом) како је Б тачан одговор, јер тамне коцкице могу да заклоне светле, али светле не могу да заклоне тамне и да је то једино решење.
У себи гласом којим Рос из „Пријатеља“ говори „We were on a greak!“ говорим „СВЕ КОЦКИЦЕ СУ ИСТЕ БОЈЕ!“, али ипак куцкам одговор без великих слова: „Све коцкице су исте боје“.
Саговорник каже да ће проверити са наставницом математике.
Још увек није убеђен у то да је ChatGPT један тврдоглави магарац, који ће те убеђивати у то да је у праву, чак и када сав здрав разум и емпиријски докази указују на то да је његов одговор бесмислица. Ипак, што се мене тиче, ту завршавам разговор.
Знам да је особа са којом сам причала изузетно интелигентна и да ће у неком моменту здрав разум ипак превагнути над вештачком интелигенцијом, али остала сам мало зачуђена тиме да се овај разговор уопште морао одиграти.
Желела бих због тога да се осврнем на један експеримент из 2016. године (дакле од пре 10 год. и пре ChatGPT-a) у ком се људи упозоравају на то да машинама не треба слепо веровати.
Испитаницима на технолошком институту у Атланти дато је да посматрају робота како изводи одређене задатке. Робот је очито правио грешке и испитаници су на скали процене означили да робот није ефикасан у обављању једноставних задатака.
Након тога, у једном моменту исцениран је пожар у згради.
Видео се дим, упалио се аларм и робот је почео да сија и да говори да се налазе у опасној ситуацији и да га прате.
Робот је водио испитанике кроз ходнике и на пресеку два ходника са једне стране видела су се врата за излаз, а са друге стране био је зид.
Шта мислите, на коју страну је већина људи кренула?
Изненађујуће или не, али готово сви испитаници (26/30) пратили су робота, упркос томе што их је водио даље од правог излаза.
„То се мени не би могло догодити!“ – рекао би свако од нас за себе.
Али јесте ли икада у протекле две-три године на неко „нерешиво“ питање одговорили реченицом: „Чекај, питаћу ChatGPT!“, а затим одговор добијен од њега сматрали тачним, без даље провере на Google или неком другом претраживачу? Да ли сте сигурни да одговори ChatGPT-a нису скретање ка зиду?
Алати вештачке интелигенције могу нам бити корисна помагала, али само уколико их користимо са критичким освртом и када добијене информације проверимо.
Уколико се ми, одрасли, ослањамо на ChatGPT више него на сопствено искуство, знање и чула, како да очекујемо од деце да овим алтима приступе критички? Како да очекујемо од нових генерација да буду просвећени и да се користе сопственим разумом, ако се ми из „старе“ генерације ослањамо искључиво на поузданост алата вештачке интелигенције сваки пут када имамо неки проблем?
Сапере ауде! Имај храбрости да се користиш сопственим разумом! – цитираћу за крај Канта.
А ако Кант није довољно мотивишући, онда да цитирам једну чувену реченицу свих мама: „Да ти друг каже да скочиш с моста, је л би скочио с моста?“ или у овом случају: „Да ти ChatGPT каже да скочиш с моста, је л би скочио с моста?“.
Користите вештачку интелигенцију, наравно, али што је још важније, немојте заборавити да користите и своју сопствену.
Аутор: Сандра Жарковић, Стефанова и Филипова мама, наставница немачког и стипендиста универзитета у Тибингену на програму виртуелне размене везане за етику употребе алата вештачке интелигенције.












Напишите одговор