Иля Суцкевер, съосновател и бивш главен научен сътрудник в OpenAI, прогнозира края на ерата на традиционното предварително обучение на ИИ моделите и заяви, че бъдещето е на системите с „истинско действие“ и способността да разсъждават. На конференцията NeurIPS във Ванкувър той отбеляза, че светът е достигнал предела на наличните данни за обучение и са необходими нови подходи. Суцкевер сравни развитието на ИИ с еволюцията на мозъка при хоминидите, като предположи, че изкуственият интелект ще намери нови начини за мащабиране и ще стане по-малко предсказуем, но по-ефективен.
„Предварителното обучение във вида, в който го познаваме, несъмнено ще приключи“, заяви Суцкевер на сцената.
Това е първият етап от разработването на модел на изкуствения интелект, при който голям езиков модел научава модели от огромни количества немаркирани данни – обикновено текстове от интернет, книги и други източници.
По време на лекцията си Суцкевер заяви, че макар съществуващите данни все още да могат да допринесат за развитието на ИИ, индустрията се нуждае от нови източници на информация за обучение. Той смята, че тази тенденция неминуемо ще доведе до преосмисляне на обичайните подходи за обучение на ИИ. Той сравни ситуацията с изкопаемите горива: както петролът е ограничен ресурс, така и интернет съдържа ограничено количество съдържание, създадено от човека.
„Достигнахме пика на данните и няма да има повече“, каза изследователят.
Суцкевер прогнозира, че моделите от следващо поколение ще имат „истинска агентност“. Терминът е станал популярен в областта на изкуствения интелект. Суцкевер не му даде ясна дефиниция, но под агенти обикновено се разбират автономни ИИ системи, които могат самостоятелно да изпълняват задачи, да вземат решения и да взаимодействат с програмите. Освен това изследователят подчертава, че бъдещите системи ще бъдат надарени със способността да разсъждават.
За разлика от сегашния ИИ, който разчита на съвпадение на шаблони от предварително видяни данни, бъдещите алгоритми ще могат да решават задачите стъпка по стъпка, което в по-голяма степен ще наподобява мисловен процес.
Колкото повече ИИ разсъждава, толкова по-малко предсказуемо става неговото поведение, смята Суцкевер. Ученият сравнява непредсказуемостта на „истински разсъждаващите системи“ с това как напредналият ИИ, играещ шах, е непредсказуем и за най-силните гросмайстори. „Те ще разбират нещата въз основа на ограничени данни и няма да се объркват“, каза той.

Сравнявайки развитието на системите за изкуствен интелект с еволюцията на живите организми, Суцкевер отбеляза интересен паралел. Изследванията показват, че съотношението между мозъка и телесната маса при повечето бозайници се подчинява на определени закономерности. Хоминидите, предците на човека, обаче показват значително отклонение от тази обща тенденция.
Изследователят предполага, че както еволюцията е намерила нов начин за развитие на мозъка при хоминидите, така и развитието на ИИ може да излезе извън рамките на съществуващите модели и да намери нови, по-ефективни начини за мащабиране.
След края на лекцията член на аудиторията попита как да се създадат механизми, които да дадат на ИИ „свободи, подобни на човешките“. Суцкевер отбеляза, че това е важен въпрос, но решението му изисква „твърда държавна структура“. Когато слушателите предложиха използването на криптовалута, той отговори: „Не съм експерт, но не изключвам тази възможност“. Ако ИИ иска да съжителства с хората и да има права, това би могло да бъде приемлив вариант, каза той, въпреки че бъдещето остава непредсказуемо. След като напуска OpenAI, Суцкевер основава своя собствена лаборатория за ИИ, наречена Safe Superintelligence. Стартъпът вече е набрал финансиране в размер на 1 млрд. долара.
Източник: Kaldata
Leave a Reply