Грядущее регулирование нейросетей
Published on Nov 3, 2024 by The H. team
Сегодня ИИ не только прочно вошел в нашу повседневную жизнь, но и стремительно развивается, превращаясь в нечто гораздо более мощное и сложное, чем мы могли представить. Однако вместе с этим ростом появляются и новые вызовы, требующие нашего внимания.
I. Гармония изменений искусственного интеллекта
Современный ИИ переживает период экспоненциального роста. Технологические гиганты и стартапы вкладывают миллиарды долларов в развитие нейронных сетей, стремясь создать системы, способные к самообучению и адаптации. Одной из самых захватывающих инноваций последних лет стала жидкая нейронная сеть — технология, вдохновленная нервной системой крошечного червя Caenorhabditis elegans.
В традиционных нейронных сетях свойства каждого нейрона статичны и определяются на этапе обучения. Жидкие нейронные сети, представленные исследователями из MIT, работают иначе: поведение каждого нейрона управляется дифференциальным уравнением, предсказывающим его состояние во времени. Это означает, что такие сети могут динамически адаптироваться к новым данным даже после первоначального обучения.
Преимущества жидких нейронных сетей:
  • Энергоэффективность. Снижение потребления энергии и ресурсов, что позволяет использовать ИИ на устройствах с ограниченными возможностями, включая смартфоны и носимые гаджеты, причём без подключения к Интернету
  • Прозрачность и объяснимость. Возможность "перемотать назад" процессы внутри модели, чтобы понять, как она пришла к определенному выводу. Подобную систему мышления сейчас внедряют как инновацию крупнейшие компании ГенИИ, в связи с чем растёт тревога о возможности превенции волнений
  • Обучение в реальном времени. Способность адаптироваться к новым данным без необходимости полного переобучения модели. Отличительная особенность LFM (liquid foundation models) даёт несравненное преимущество с потенциальным преобладанием в сфере замены рабочих мест, так как компаниям не нужны массивные языковые модели для работы над статично схожими данными
II. Вызовы и опасения
Несмотря на впечатляющие достижения, многие эксперты выражают обеспокоенность по поводу неконтролируемого развития ИИ. Компания Anthropic, один из лидеров в области искусственного интеллекта, призвала правительства к срочному регулированию этой сферы.
"Правительства должны срочно принять меры по политике в области ИИ в течение ближайших восемнадцати месяцев. Окно для проактивной превенции рисков быстро закрывается," — говорится в их обращении.
Основные риски, на которые указывает Anthropic:
  • Кибербезопасность. Усиление возможностей ИИ может привести к созданию новых, более сложных киберугроз. Если в октябре 2023 года Claude 2 (один из лидеров рынка ГенИИ) в SWE-bench смог решить всего 1.96% задач, то к октябрю 2024 года Claude 3.5 Sonnet дошёл до отметки в 49%. Даже часть такой мощности может нанести серьёзный вред от работы киберпреступников
  • Этические вопросы. Отсутствие прозрачности в работе моделей затрудняет контроль над их решениями. Более того, ГенИИ есть другой, не осознаваемый людьми тип мышления, чьи этические взгляды кардинально отличаются от сложившихся в обществе. Нельзя ограничить разум в том, что он даже не понимает
  • Социальные последствия. Автоматизация может привести к потере рабочих мест и социальному неравенству. При нынешнем уровне развития человеческого мозга коммунизм не достижим, а в капитализме равномерное распределение лишь утопия, недостижимая даже при жёстком государственном контроле. Следующий шаг автоматизации производств - узконаправленные ГенИИ, способные быстро и качественно решать проблемы своей отрасли, причём вне зависимости от сложности работы, бухгалтерия или поиск природных ископаемых, что будет снижать себестоимость производства, плодя безработицу во всех секторах экономики
Необходимость регулирования ИИ становится все более очевидной. Варианты регулирования могут включать:
  • Установление стандартов прозрачности. Требование от компаний раскрывать внутренние механизмы работы моделей для управляющих органов и закрывать её для населения. Open source более развитых LLM станет критически опасным в связи с некотролируемостью и невозможностью цензуры. Уже сейчас ГенИИ типа lambic прогнозируют влияние гипотетических препаратов на живых существ, а с зарождения LLM прошло менее 50 лет(в основе лежит та же система, что в распознавании речи)
  • Этические комитеты: Создание независимых органов для оценки и контроля за развитием ИИ, хоть мы и не можем заложить этический кодекс в мыслительный процесс LLM, но всё же возможно потоковое регулирование деятельности и развития AI стартапов
III. Баланс между инновациями и безопасностью
Главный вопрос: как найти баланс между стремительным развитием технологий и необходимостью предотвращения потенциальных рисков?
Прорывные технологии в сфере генеративных ИИ предлагают новые возможности, но также поднимают вопросы о том, насколько мы готовы к таким изменениям.
Некоторые философы и ученые считают, что мы находимся на пороге новой эры — эры синергии человеческого и искусственного интеллекта, что в свете последних новостей из мира энтузиастов ASI имеет под собой твердую почву. Другие предупреждают о возможных опасностях, сравнивая ситуацию с открытием ядерной энергии: огромный потенциал, сопряженный с рисками катастрофических последствий, но теперь безмерная мощь доступна каждому, всё опаснее выпускать в мир каждое новое обновление GPT 4, что не коррелирует с мировым нарративом обеспечения энергией будущего роста вычислительных мощностей ИИ.
IV. Заключение: необходимость осознанного подхода
Развитие искусственного интеллекта — это неостановимый процесс. Однако от нас зависит, будет ли этот путь безопасным и ответственным или прямой дорогой к Skynet. Необходимы совместные усилия правительств, компаний и общества для выработки стратегий, которые позволят использовать все преимущества ИИ, минимизируя риски.