https://reporter.zp.ua

Партнер Roosh Сергей Токарев о попытках контролировать AI: Это не регулирование — это торможение

Редактор: Михайло Мельник

штучний інтелект ai

Попытки контролировать сферу искусственного интеллекта приводят к торможению ее развития. В этом убежден Сергей Токарев — IT-предприниматель и инвестор, соучредитель и партнер инвестиционной группы Roosh. Он отмечает: основная проблема заключается в том, что участие в обсуждении способов урегулирования отрасли принимают представители власти и крупных AI-компаний.

“Это означает, что крупные компании, вроде Meta или OpenAI, могут диктовать собственные условия и, как результат, укреплять свои позиции на рынке. Это усложняет среду для небольших стартапов и замедляет развитие технологий в целом. Это не регулирование — это торможение”, — делится бизнесмен.

Первые масштабные дискуссии по контролю сферы Artificial Intelligence начали появляться в 2023 году. Так, в Лондоне состоялся AI Safety Summit, участие в котором приняли представители 28 стран и крупнейших AI-компаний. Они достигли общего мнения о необходимости тестировать ИИ-модели на безопасность. Тогда же Великобритания анонсировала создание AI Safety Institute, цель которого — решать вопросы безопасности технологий искусственного интеллекта в интересах общества.

Похожие процессы начались и в США. Согласно указу президента Джо Байдена, компании, которые разрабатывают искусственный интеллект, обязаны информировать федеральное правительство о тренировках моделей, а также предоставлять результаты испытаний на безопасность. 

А уже в феврале 2024 года Скотт Винер, сенатор штата Калифорния, представил новый законопроект, основанный на указе Байдена, но предлагающий более жесткие меры. Документ требует от компаний, занимающихся тренировкой AI-моделей, проверять свои инструменты на предмет “опасного” поведения, внедрять защиту от хакерских атак и разрабатывать технологию так, чтобы ее можно было полностью отключить. ИИ-компании будут обязаны раскрывать Департаменту технологий Калифорнии введенные протоколы тестирования и средства защиты. А если технологии нанесут “критический вред”, генеральный прокурор штата может подать в суд на разработчиков. 

Є питання? Запитай в чаті зі штучним інтелектом!

Законопроект Виннера называют знаковым, поскольку он может запустить механизм регулирования искусственного интеллекта и в других штатах. Неудивительно, что такая инициатива появилась в Калифорнии, ведь именно там расположены офисы многих крупнейших технологических компаний. Вместе с этим ожидается, что американская AI-индустрия раскритикует проект как чрезмерно агрессивный и потенциально препятствующий инновациям.

Несмотря на то, что именно программы внешней помощи США способствовали развитию AI в Украине, по словам Бенджамина Дженсена — представителя американского Центра стратегических и международных исследований — украинцы используют технологии искусственного интеллекта значительно активнее, чем американцы.

Пока международное сообщество и отдельные страны обсуждают потенциальное влияние искусственного интеллекта на человечество, в Украине технологии применяют в различных сферах и наблюдают за их развитием. 

По мнению Сергея Токарева, решать проблемы, связанные с развитием искусственного интеллекта, нужно не заранее, а тогда, когда они появляются. Невозможно предусмотреть все вызовы, которые принесет AI — но можно работать над преодолением имеющихся. Однако сегодняшние дискуссии фокусируются на маловероятных сценариях, вроде восстания Artificial Intelligence против человечества или конца цивилизации из-за ИИ. Страх перед этим отвлекает от таких реальных проблем, как, например, возможное использование технологии deepfake перед президентскими выборами в США.

Ранее в интервью для РБК бизнесмен отмечал, что ни одно из существующих законодательств не было готово к такому стремительному развитию Artificial Intelligence. Веками человечество разрабатывало юридические системы с четкими правилами, за нарушение которых должны отвечать конкретные люди. Однако, пока не существует механизма, который бы определял виновных в том случае, если AI-алгоритм навредит человеку. Развитие технологий искусственного интеллекта привело к тому, что человечеству придется серьезно менять существующие системы законов. 

Не менее остро стоит вопрос этики в использовании искусственного интеллекта. Сейчас AI-технологии не могут давать “опасные” ответы — например, о том, как создать бомбу. Однако Токарев считает, что развитие ИИ-инструментов в этом направлении — вопрос времени. По его мнению, вскоре отдельные компании и целые страны будут создавать для внутреннего пользования технологии, которые будут давать ответы даже на самые жестокие вопросы.

У вас є запитання чи ви хочете поділитися своєю думкою? Тоді запрошуємо написати їх в коментарях!

Погана якість статті?
Повідомити

Залишити коментар

Опубліковано на 21 02 2024. Поданий під Блог. Ви можете слідкувати за будь-якими відповідями через RSS 2.0. Ви можете подивитись до кінця і залишити відповідь.
Контакти :: Редакція
Використання будь-яких матеріалів, розміщених на сайті, дозволяється за умови посилання на Reporter.zp.ua.
Редакція не несе відповідальності за матеріали, розміщені користувачами та які помічені "реклама".