Быстрое развитие искусственного интеллекта принесло огромные возможности, но также вызвало множество проблем с безопасностью. Недавно компания Lagrange представила инновационную технологию под названием DeepProve, направленную на решение ключевой проблемы верифицируемости AI-систем. Появление этой технологии как раз вовремя, поскольку согласно исследованию MIT 2024 года, в таких важных областях, как здравоохранение и финансы, до 68% AI-систем не имеют надежного механизма верификации.



Основная функция технологии DeepProve заключается в добавлении слоя "верификационной блокировки" к AI-системам для предотвращения потенциально серьезных ошибок. Эта необходимость возникла из реального случая, когда в 2023 году из-за неверной диагностики AI пострадали 1200 пациентов. Реализация DeepProve должна значительно снизить вероятность подобных инцидентов.

План развития Lagrange имеет значительную перспективу. Они планируют расширить технологию DeepProve на более широкий спектр приложений, включая поддержку таких крупных языковых моделей, как LLaMA и Gemini, а также охват таких отраслей, как национальная оборона и децентрализованные финансы ( DeFi ). Эта стратегия совпадает с прогнозом Gartner на 2025 год, в котором говорится, что в этих областях ожидается рост уровня внедрения ИИ на 40% под давлением регулирующих мер и потребности в доверии.

Стоит отметить, что Lagrange сотрудничает с такими технологическими гигантами, как NVIDIA, используя передовые технологии аппаратного ускорения для повышения производительности DeepProve. Согласно белой книге NVIDIA 2024 года, эта технология может сократить время, затрачиваемое на процесс проверки ИИ, вдвое. Это сотрудничество позволяет DeepProve занять лидирующие позиции в конкуренции за "масштабируемость безопасного ИИ".

В сравнении с этим, анализ Блокчейн-исследовательского института за 2024 год указывает на то, что многие аналогичные технологии все еще борются с "проблемой масштабируемости". Lagrange, благодаря стратегическому сотрудничеству с гигантами отрасли, похоже, нашла эффективный способ решения этой проблемы. С учетом постоянно растущих требований к надежности AI-систем по всему миру, важность технологии DeepProve может еще больше подчеркнуться и сыграть ключевую роль в продвижении безопасного развития AI.
LA8.68%
DEFI-4.06%
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
LucidSleepwalkervip
· 9ч назад
ai здесь играть безопасно, как будто вор устанавливает камеры наблюдения
Посмотреть ОригиналОтветить0
MerkleDreamervip
· 9ч назад
бык Потрясающий, это снова проект, который будет играть для лохов
Посмотреть ОригиналОтветить0
TestnetNomadvip
· 9ч назад
Рано говорить о нелепых ошибках AI, я испугался, испугался.
Посмотреть ОригиналОтветить0
  • Закрепить