AI – между използване и майсторство

Изкуственият интелект вече е неизменна част от арсенала на бизнеса и въпросът е не дали се използва, а как.

от Redlink
AI – между използване и майсторство

най-четени

Защо да се абонирам за redlink?

eксклузивни анализи

пийпълметрични данни

детайлни селекции

помагате на една нова медиа

Компаниите в областта на технологиите и маркетинга изискват все повече интегриране на изкуствен интелект от своите служители. Някои вече създават оценки за владеене на изкуствен интелект, за да го измерят, но какви са те, полезни ли са и какво ни казват за това накъде всъщност се насочва изкуственият интелект в бизнеса?

Миналата седмица Anthropic – компанията, стояща зад популярния чатбот Claude, която сега се разраства бързо след сблъсъка си с Пентагона – публикува ново проучване на поведенията, които съставляват владеенето на AI. Изследването идва в момент, когато все повече компании започват да налагат използването на изкуствен интелект сред служителите, като някои фирми дори се позовават на използването на изкуствен интелект в оценките за представянето и създават общи оценки за владеене на AI (често по-малко сложни от тези, очертани от Anthropic).

Различният елемент в тази история е, че бизнесите започват да осъзнават, че изкуственият интелект е по-малко технологично, отколкото културно предизвикателство и че изисква различни начини на мислене за работата и различни организационни структури, за да работи. Дали бизнесите са готови да възприемат тези методи и да се подготвят за това културно е съвсем различен въпрос. Доказателствата сочат, че суровите статистики за употреба казват много по-малко от поведенческите. Истинският въпрос за всеки екип не е колко AI използват хората, а как.

Това преосмисляне има структурни последици. Настроени ли са вътрешните процеси да подкрепят делегирането и разпознаването? Имат ли хората пространството – и очакванията - да повтарят, проверяват и да се въвеждат в практиката? Или натискът е просто да се произвежда по-бързо?

Това повдига и по-дълбоки въпроси: Дали компетентността в областта на AI е индивидуална или екипна черта? Ще насърчи ли оценяването и измерването на използването на AI истински най-добри практики – или ще стане просто поредното отмятане на задачи? И за кого точно е неутрално всичко това? Тревогата за сигурността на работното място е реална сред самите служители, разтърсени от смелите твърдения на големите технологични компании, докато компаниите, жадни за повишаване на производителността, се борят да съчетаят AI употребата с осезаеми резултати.

Доказателствата сочат, че потребителите на AI проявяват набор от различни поведения, които водят до по-ефективно, по-точно и по-ефикасно използване на тези инструменти. Всъщност общата статистика за нивата на употреба е по-малко полезна от тези доказателства, което показва, че бизнесът е едва в подножието на сложното използване на AI.

Бизнесът трябва да се запита дали продължава да говори и мисли за AI като технически въпрос или като интелектуален и културен? Създадени ли са вътрешни структури, които да обмислят предизвикателствата на делегирането и разпознаването?

Целта на Anthropic в скорошното изследване за плавността на AI е да проучи 11 директно наблюдаеми поведения чрез анализ на 9830 разговора в Claude AI (твърди се, че е запазил поверителността на потребителите). Това e обобщено в индекс: „базово измерване на това как хората си сътрудничат с AI днес и основа за проследяване на това как тези поведения се развиват с течение на времето, когато моделите се променят.“

Две констатации от проучването са:

Повторението и усъвършенстването са в основата на плавността на интегрирането на AI: „Средно разговорите с повторение и усъвършенстване показват 2,67 повече плавност – приблизително двойно повече от процента за неповторяемост, който е 1,33.“

В 12% от разговорите, базирани на създаване на резултати (код, документи и др.), поведението се променя - честотата на описание и делегиране се увеличава, докато оценката и разпознаването намаляват. „Потребителите са по-малко склонни да идентифицират липсващ контекст (-5,2 пункта), да проверят факти (-3,7 пункта) или да поставят под въпрос разсъжденията на модела, като го помолят да обясни своята обосновка (-3,1 пункта).“

Какви поведения се наблюдават:

Повторение и усъвършенстване - Надгражда се върху предишни разговори, за да се подобри работата, вместо просто да се приеме първоначалния отговор на ИИ.

Изясняване на целта, преди да се поиска помощ - ясно се посочва целта предварително.

Предоставяне на примери за това как изглежда желания резултат – насочване на AI, като се предлагат справочни материали или модели за успех.

Определяне на необходимия формат и структура – насочване на AI как да организира резултатите си.

Задава режим на взаимодействие - казва на AI точно как да взаимодейства (напр. „Обяснете ми разсъжденията си, преди да ми дадете отговора“).

Комуникира предпочитания за тон и стил - диктува конкретния глас, който AI трябва да използва.

Идентифицира кога на AI може да липсва контекст - разпознава кога на AI липсва основна базова информация, за да изпълни задача.

Определя аудиторията за резултата - указва за кого е предназначен крайният продукт.

Въпроси, когато разсъжденията на AI не са издържани - отказване или искане от AI да обясни аргументите си, когато резултатът изглежда погрешен.

Консултира AI относно подхода преди изпълнение - иска стратегически съвет от AI, преди да се заеме с действителната задача.

Проверява факти и твърдения, които имат значение - активно проверява точността на твърденията на AI.

Проучването е в съответствие и с някои от откритията на Pew Research за това как тийнейджърите в САЩ използват AI. Сравнително малко мнозинство използват тези инструменти за училищна работа и информация, но много повече са запознати с опасностите от предоверяването. Според 34% от тийнейджърите AI ще има негативен ефект върху обществото поради „предоверяване и загубване на способността да се мисли креативно и критично“.