TECHitMedia.NET

Бъди в крак с технологиите!

OpenAI заплашва да банне потребители, които питат новия ИИ модел как разсъждава

Сподели с приятели.

OpenAI твърди, че най-новият ѝ модел на изкуствен интелект с кодово име „Strawberry“, публикуван под името o1-preview, е способен да „разсъждава“. Въпреки това, компанията очевидно полага усилия да запази начина, по който работи този мисловен процес, далеч от публичния достъп.

Според Ars Technica, OpenAI заплашва с блокиране на потребители, които се опитват да накарат езиковия модел да разкрие как мисли. Това е в рязък контраст с първоначалната визия на компанията за прозрачен и достъпен изкуствен интелект с отворен код.

Потребители съобщават в социалните медии, че са получили имейли от OpenAI, в които са предупредени за опити да заобиколят защитните механизми на ChatGPT

Допълнителни нарушения на тази политика могат да доведат до загуба на достъп до „GPT-4o with Reasoning“.Гласят предупрежденията.

Иронията тук е, че значителна част от рекламата около Strawberry беше съсредоточена върху неговата способност да има „верига от мисли“. Разсъждения стъпка по стъпка, които изкуственият интелект може да формулира, за да обясни своите отговори. 

Мира Мурати, главен технологичен директор на OpenAI, нарече това „нова парадигма“ за технологията.

Съобщенията се различават по отношение на това какво предизвиква нарушенията. 

Някои споделят, че използването на термина „reasoning trace“ (проследяване на разсъждението) е предизвикало проблеми, докато при други дори споменаването на думата „разсъждение“ е било достатъчно за предупреждение от системата. Макар все още да е възможно да се види обобщение на мисловния процес на Strawberry, то е генерирано от втори модел на изкуствен интелект и е значително размито.

В публикация в блога си OpenAI обяснява, че крие детайлите на мисловния процес, за да предотврати нуждата от филтриране на неподходящо съдържание, което моделът може да изкаже, докато „мисли на глас“. 

Освен това, компанията признава, че това решение ѝ дава „конкурентно предимство“, като не позволява на съперници да използват нейния напредък.

Изследователят на ИИ Саймън Уилисън обаче критикува тази политика в блога си, като казва: 

Не съм доволен от това решение. Прозрачността е всичко за мен. Възможността да изпратя сложна заявка, но да не мога да видя как тя е обработена, е голяма крачка назад.

Тези опасения сред изследователите на ИИ не са без основание

Проблемът не е само в конкретни пропуски или грешки, а в централизирания контрол върху технологията и безопасността ѝ. Когато само една компания, в случая OpenAI, държи ключа към това как и защо даден изкуствен интелект функционира и взима решения, възникват сериозни етични и практически въпроси. Някои експерти предупреждават, че липсата на прозрачност може да позволи на OpenAI да приоритизира бизнес интересите си пред обществената безопасност. 

Без независим контрол и достъп до начина, по който ИИ мисли, обществото може да остане уязвимо пред непредсказуеми рискове.

Източник: Kaldata

Leave a Reply

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *