ИН4С

ИН4С портал

Вјештачка интелигенција не размишља као човјек – и то је озбиљан проблем

1 min read

Вјештачка интелигенција

У посљедњих неколико година, вјештачка интелигенција (АИ) више није само технички алат у рукама инжењера – она је све присутнија у процесима одлучивања који директно утичу на људске животе. Од медицинских дијагноза, преко правосудних пресуда, до оцјењивања ученика и селекције кандидата за посао – АИ доноси одлуке које могу да буду за некога пресудне. Али, колико је заправо поуздана?

Нова студија објављена у фебруару 2025. у угледном часопису Трансацтионс он Мацхине Леарнинг Ресеарцх доноси хладан туш за оне који се надају да ће вјештачка интелигенција ускоро достићи (или чак превазићи) људску способност просуђивања.

Истраживачи су открили да АИ, иако изузетно успјешна у препознавању образаца, има озбиљан проблем са разумијевањем апстрактних правила, препознавањем аналогија и генерализацијом – способностима које су људима природне, преноси Индеx.

Аутори студије објашњавају да су велики језички модели, попут ГПТ-а, показали добре резултате на бројним тестовима закључивања, укључујући и оне који испитују размишљање у аналогијама. Међутим, поставља се питање – да ли они заиста разумију оно што раде или само успјешно „имитирају” логику на основу огромне количине претходно научених података?

Другим ријечима – док људи разумију правило које стоји иза неког проблема, АИ модели често само препознају сличности са ситуацијама из своје базе података. И то је, како пише МИТ Тецхнологy Ревиеw, суштинска разлика између човјека и машине.

Тестирање у три домена: слова, бројеви и приче

Да би провјерили како се вјештачка интелигенција сналази у апстрактном размишљању, истраживачи су тестирали ГПТ моделе у три различите области:

Аналогије са низовима слова

Нумеричке матрице (бројчани обрасци)

Наративне аналогије (контекстуалне приче)

Задатке су решавали и људи и АИ, али је у сваком случају направљен корак даље: поред стандардних тестова, коришћене су и њихове модификоване верзије, које су биле довољно различите да захтијевају апстрактније закључивање. Идеја је била јасна – ако АИ заиста разумије принципе, требало би да се снађе и у варијацијама задатака које не личе на оне на којима је тренирана.

Резултати су, међутим, били поражавајући за АИ.

У задацима са низовима слова (нпр. абцд → абце, па се пита шта слиједи за ијкл), већина људи је без проблема препознала образац и одговорила „ијкм”.

ГПТ модели су ту, такође, били успјешни.

Код нешто сложенијих примјера – рецимо, аббцд → абцд, па се пита шта би слиједило из ијккл – људи су препознали логику уклањања дуплираног слова и рекли „ијкл”. ГПТ модели су ту, међутим, почели да гријеше.

Како је задатак постајао комплекснији, и људи су имали више тешкоћа, али њихова способност да се снађу у непознатом и даље је била значајно већа од оне коју су показали АИ модели.

Слично је било и у тестовима бројчаних матрица – АИ се добро сналазио док је образац био познат, али је био далеко мање успјешан када је требало препознати логику у варијацијама задатка.

Највеће разлике су уочене у наративним аналогијама – ситуацијама у којима је потребно препознати суштинску повезаност између прича, ликова и њихових односа. Ту је вјештачка интелигенција показала слабости: била је осјетљива на редосљед одговора (што не погађа људе) и имала је тенденцију парафразирања умјесто давања јасног одговора.

АИ пада гдје људи бриљирају

У стварним животним ситуацијама, способност апстрактног закључивања је најважнија. Судија, на примјер, не доноси одлуку само на основу преседана – он мора да препозна да ли се правило из претходног случаја може примијенити на нову ситуацију. Љекар мора да разуме да исти симптом може да указује на потпуно различите болести, у зависности од контекста.

АИ ту заказује. Студија је показала да модели попут ГПТ-а имају низак капацитет за тзв. зеро-схот учење – способност да изнесу тачан закључак без претходног примјера из исте категорије. Другим ријечима, ако вјештачка интелигенција није нешто слично већ видјела, велика је вјероватноћа да ће погријешити.

У домену здравства, то може да значи погрешну дијагнозу или терапију. У правосуђу – погрешну пресуду. У образовању – непоштену оцјену.

Проблем није у знању – већ у начину размишљања, како истиче једна од ауторки студије, др Лора Луис.

„Проблем није у количини података, већ у начину на који се они користе. Људи знају када правило важи, а када не – модели то не знају”, каже др Луис.

АИ системи данас бриљирају у препознавању образаца – што више података, то су бољи, стоји даље у студији. Генерализација, способност да се из специфичних случајева извуку општа правила и примјене у новим ситуацијама, међутим, остаје њихова највећа слабост.

Кључна порука студије јесте да АИ не треба оцјењивати само према тачности одговора, већ и према робусности и стабилности логике коју користи. Ако се одговор мијења у зависности од редосљеда питања, начина на који је формулисано или контекста у којем се даје – то није поуздан систем за доношење озбиљних одлука.

Зато они који користе вјештачку интелигенцију морају да разумију не само шта АИ може, већ и гдје су јој границе.

„Морамо престати да очекујемо да АИ размишља као човјек. Умјесто тога, морамо научити како она закључује и гдје престаје њена моћ разумијевања”, закључује др Луис.

Без људског надзора, АИ можда изгледа као да зна шта ради – али, суштински, може да доноси погрешне одлуке.

Подјелите текст путем:



Придружите нам се на Вајберу и Телеграму:

     

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Privacy Policy