Інформація про дані Платона.
Вертикальний пошук і штучний інтелект.

Доповідь Стенфордського університету про штучний інтелект показує, що бурхлива галузь перебуває на роздоріжжі

Дата:

Стенфордський інститут штучного інтелекту, орієнтованого на людину (HAI), опублікував свій сьомий щорічний звіт про індекс штучного інтелекту, в якому повідомляється про процвітаючу галузь, яка стикається зі зростаючими витратами, регулюванням і стурбованістю громадськості.

502-сторінковий звітом [PDF] походить від наукових кіл та промисловості – керівний комітет HAI очолюють співзасновник Anthropic Джек Кларк і Рей Перро, комп’ютерний науковець із Міжнародного центру штучного інтелекту SRI – і тому не надто зациклюється на burn-it- аргументи з вогнем.

До цього моменту звіт визначає конфіденційність таким чином, що люди мають право давати згоду на використання великих мовних моделей (LLM) з використанням їхніх даних. Проте він не пропонує компаніям штучного інтелекту відмовитися від існуючих моделей, оскільки вони були створені без дозволу. Це передбачає прозорість, а не покаяння.

«Отримати справжню та інформовану згоду на збір навчальних даних є особливо складним для LLM, які покладаються на величезні обсяги даних», — йдеться у звіті. «У багатьох випадках користувачі не знають, як використовуються їхні дані або обсяг їх збору. Тому важливо забезпечити прозорість практики збору даних».

Результати кількох незавершених судових процесів, наприклад випадок проти GitHub Copilot, може означати, що прозорості недостатньо, що навчальні дані штучного інтелекту вимагають явного дозволу та, можливо, непомірних платежів.

Але якщо припустити, що штучний інтелект залишиться і з ним потрібно рахуватися в його нинішньому вигляді, у звіті вдалося висвітлити перспективи та небезпеку автоматизованого прийняття рішень.

«Наша місія полягає в тому, щоб надати об’єктивні, ретельно перевірені дані з широкого джерела, щоб політики, дослідники, керівники, журналісти та широка громадськість могли отримати більш повне та детальне розуміння складної сфери ШІ», — пояснюється у звіті.

Деякі з головних висновків звіту не викликають особливого подиву, як-от «ШІ перемагає людей у ​​деяких завданнях, але не в усіх» і «Промисловість продовжує домінувати в передових дослідженнях ШІ».

Щодо останнього пункту, у звіті йдеться, що галузь створила 51 варту уваги модель машинного навчання, у порівнянні з 15 у науковій сфері та 21 у співпраці між галуззю та наукою.

У той час як закриті моделі (наприклад, GPT-4, Gemini) перевершили моделі з відкритим кодом за набором із 10 тестів ШІ, моделі з відкритим кодом стають все більш поширеними. Зі 149 базових моделей, випущених у 2023 році, 65.7 відсотка були з відкритим кодом, порівняно з 44.4 відсотками у 2022 році та 33.3 відсотками у 2021 році.

Чи збережеться ця тенденція, можливо, пов’язано з іншим головним висновком: «Моделі Frontier стають набагато дорожчими». Це означає, що моделі з відкритим кодом навряд чи стануть більш конкурентоспроможними порівняно з конкурентами із закритим кодом, якщо витрати на навчання найсучаснішої моделі штучного інтелекту стануть такими, які можуть розглядати лише добре фінансовані.

«Згідно з оцінками AI Index, середні витрати на навчання передових моделей штучного інтелекту зросли майже вдвічі за останній рік», — йдеться у звіті. «Витрати на навчання найсучасніших моделей особливо досягли безпрецедентного рівня. Наприклад, GPT-4 від OpenAI використав обчислення на суму 78 мільйонів доларів для навчання, тоді як Gemini Ultra від Google обійшовся в 191 мільйон доларів».

Вже є деякі сумніви, що штучний інтелект вартий цих грошей. Січневе дослідження MIT CSAIL, MIT Sloan, The Productivity Institute та IBM Institute for Business Value знайдений що «економічно доцільно замінити людську працю штучним інтелектом лише в одній чверті робочих місць, де зір є ключовим компонентом роботи». І недавній Wall Street Journal звітом вказує на те, що технологічні фірми не обов’язково знайшли спосіб окупити інвестиції в ШІ.

Звідси все додаткові збори для послуг, доповнених ШІ.

Якщо взяти до уваги інші висновки звіту HAI, як-от «У США різко посилюються правила штучного інтелекту», навчання моделі ШІ, ймовірно, стане ще більш капіталомістким. У звіті йдеться, що минулого року в США було прийнято 25 нормативних актів, пов’язаних зі штучним інтелектом, порівняно з одним у 2016 році, і це призведе до додаткових витрат.

Ще один висновок, який може призвести до більшої кількості нормативних актів і, отже, до витрат на відповідність, це ставлення людей до ШІ. «Люди в усьому світі більше усвідомлюють потенційний вплив штучного інтелекту – і більше нервують», – йдеться у звіті. У ньому йдеться про збільшення кількості людей, які вважають, що штучний інтелект вплине на їхнє життя в найближчі три-п’ять років (66 відсотків, зростання на 52 процентних пунктів), а також кількість людей, які нервують з приводу штучного інтелекту (13 відсотки, збільшення на XNUMX відсотків). бали).

Іншим потенційним джерелом проблем для компаній, що займаються штучним інтелектом, є відсутність стандартів оцінки для магістрів права, що дозволяє фірмам, які займаються штучним інтелектом, обирати власні контрольні показники для тестування. «Ця практика ускладнює спроби систематично порівняти ризики та обмеження кращих моделей штучного інтелекту», — йдеться у звіті.

У звіті HAI стверджується, що ШІ підвищує продуктивність працівників і прискорює науковий прогрес, посилаючись на GNoME від DeepMind, «який полегшує процес відкриття матеріалів».

Хоча доведено, що автоматизація штучного інтелекту підвищує продуктивність у конкретних завданнях, її корисність як джерела ідей залишається предметом дискусій. Як ми повідомляє Останнім часом все ще існує деякий скептицизм щодо цінності передбачень за допомогою ШІ для життєздатних нових матеріалів, наприклад.

Як би там не було, на ШІ роблять великі ставки. Інвестиції в генеративний штучний інтелект зросли у вісім разів, з 3 мільярдів доларів США у 2022 році до 25.2 мільярдів доларів США у 2023 році. Наразі США є головним джерелом систем штучного інтелекту: у 61 році було представлено 2023 помітну модель штучного інтелекту, порівняно з 21 моделлю в Європейському Союзі та 15 у Китаї.

«ШІ стоїть перед двома взаємопов’язаними майбутніми», — пишуть Кларк і Перро. «По-перше, технології продовжують удосконалюватись і використовуються все частіше, що має серйозні наслідки для продуктивності та зайнятості. Його можна використати як з користю, так і з користю. У другому майбутньому впровадження ШІ стримується обмеженнями технології».

Протягом наступних кількох років ми повинні побачити, яке з цих двох майбутніх буде домінувати. ®

spot_img

Остання розвідка

spot_img

Зв'яжіться з нами!

Привіт! Чим я можу вам допомогти?