Шта је слаби АИ
Слаби АИ, или Уски АИ, је машинска интелигенција која је ограничена на одређено или уско подручје. Слаба умјетна интелигенција (АИ) симулира људску спознају и користи човјечанству аутоматизацијом дуготрајних задатака и анализом података на начине на које људи понекад не могу.
БРЕАКИНГ ДОВН Слаби АИ
Слабом АИ недостаје људска свест, мада га можда може и симулирати. Класична илустрација слабог АИ је експеримент мисљења кинеске собе Јохна Сеарлеа. Овај експеримент каже да особа ван собе можда може водити разговор на кинеском са особом која се налази у соби и која јој је дата упутства како да одговори на разговоре на кинеском. Чини се да би особа у соби говорила кинески, али у стварности заправо није могла да говори или не разуме ни реч о њој, а не у складу са упутствима којима се хране. То је зато што је особа добра да слиједи упутства, а не да говори кинески. Можда се чини да имају Снажни АИ - машинску интелигенцију еквивалентну људској интелигенцији - али они стварно имају само Слаби АИ.
Узак или слаб АИ систем нема општу интелигенцију; имају специфичну интелигенцију. АИ који је стручњак који вам говори како возити од тачке А до тачке Б обично није у стању да вас изазове на шаховску игру. А АИ који се може претварати да говори кинески са вама вероватно не може помести своје подове.
Слаби АИ помаже претворити велике податке у употребљиве информације откривањем образаца и предвиђањима. Примјери укључују Фацебоок вијест, Амазонове предложене куповине и Аппле-ову Сири, иПхоне технологију која одговара на питања корисника. Филтери за нежељену пошту е-поште су још један пример слабог АИ-а где рачунар користи алгоритам да би сазнао које ће поруке вероватно бити нежељене поште, а затим их преусмерава из пристигле поште у мапу нежељене поште.
Ограничења слабог АИ
Проблеми са слабим АИ поред његових ограничених могућности укључују могућност да нанесе штету ако систем поквари - помислите на аутомобил без возача који погрешно израчуна локацију надолазећег возила и проузрокује смртоносни судар - и могућност да нанесе штету ако систем користи неко ко жели да нанесе штету - као што је терориста који користи аутомобил који се вози самостално за постављање експлозива у гужве. Други проблем у вези с тим је утврђивање ко је крив за квар или грешку у дизајну.
Даљња забринутост је губитак радних мјеста узрокован аутоматизацијом све већег броја задатака. Да ли ће се незапосленост повећати или ће друштво смислити нове начине да људи буду економски продуктивнији? Иако су изгледи за велики проценат радника који губе посао можда застрашујући, оправдано је очекивати да ће се, уколико се то догоди, појавити нови послови које још не можемо предвидјети јер употреба АИ постаје све раширенија.
