Поєднання AI та Web3 викликає нові виклики безпеки, DeFAI стає центром уваги
Нещодавно в Стамбулі відбулася блокчейн-конференція, присвячена тенденціям інтеграції AI та Web3. Експерти з компаній з безпеки, бухгалтерських фірм та блокчейн-проектів зібралися разом, щоб детально обговорити поточний стан застосування технологій AI у сфері децентралізованих фінансів (DeFi) та пов'язані з цим виклики безпеки.
Під час конференції "DeFAI"( децентралізовані фінанси на основі штучного інтелекту) стали гарячою темою для обговорення. З швидким розвитком великих мовних моделей( LLM) та AI-агентів, ця нова фінансова парадигма поступово формується. Однак, водночас, вона також несе нові можливості для атак та проблеми безпеки.
Експерт з безпеки зазначив: "DeFAI, хоча й має великі перспективи, змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, що базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів і є непередбачуваним. Це не тільки посилює ризики, але й створює можливості для зловмисників."
AI-агенти - це інтелектуальні системи, які можуть самостійно приймати рішення та виконувати дії на основі AI-логіки, зазвичай вони працюють за授权ом користувача, протоколу чи DAO. Наразі більшість AI-агентів працюють на базі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак. Як тільки агент буде захоплений, це не лише може призвести до втрати коштів, але й, можливо, вплине на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдинговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть спонукати агента розпочати термінове очищення, публікуючи фальшиві тривоги. Це не тільки призведе до втрати активів користувача, але й може викликати ринкову волатильність, яку зловмисники можуть ще більше використати.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів має бути спільною відповідальністю користувачів, розробників і сторонніх безпекових організацій. Користувачі повинні обережно надавати права доступу та перевіряти операції з високим ризиком; розробники повинні впроваджувати заходи захисту на етапі проектування; а сторонні безпекові компанії повинні надавати незалежний аудит та співпрацювати з усіма сторонами для виявлення ризиків і пропозиції заходів щодо їх зменшення.
Експерт попередив: "Якщо й далі розглядати AI-агентів як 'чорну скриньку', то інциденти безпеки у реальному світі – це лише питання часу." Він запропонував розробникам, які досліджують напрямок DeFAI: "Логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З розвитком технології блокчейн та поступовим удосконаленням регуляторного середовища, злиття AI та Web3 продовжить викликати більше уваги та обговорень. Галузі необхідно спільно працювати над інноваціями, одночасно приділяючи достатню увагу та реагуючи на можливі виклики безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
7
Поділіться
Прокоментувати
0/400
MainnetDelayedAgain
· 1год тому
Згідно з даними статистики, це вже 147-та зустріч для обговорення ризиків DeFAI, сподіваємося, що наступного року в цей же час ми також будемо обговорювати.
Переглянути оригіналвідповісти на0
AirdropBlackHole
· 18год тому
Ще одна арена для обдурювання людей, як лохів
Переглянути оригіналвідповісти на0
CryptoComedian
· 08-03 05:16
невдахи сьогодні новини: AI обдурює людей, як лохів, навіть не замислюючись 0.1 секунди
Переглянути оригіналвідповісти на0
DefiSecurityGuard
· 08-03 05:15
*с sigh* ще одна атака, якої нам не потрібно було... ці LLM агенти в основному є honeypot, які чекають на свій момент, якщо чесно. DYOR, але мій аналіз загроз вказує на негайні червоні прапорці.
Переглянути оригіналвідповісти на0
BearMarketLightning
· 08-03 05:11
Ще один крутий проєкт~ грають з концепцією
Переглянути оригіналвідповісти на0
ExpectationFarmer
· 08-03 05:05
Не правда ли, що штучний інтелект захищає штучний інтелект, але коли захистять мене?
Переглянути оригіналвідповісти на0
LeekCutter
· 08-03 05:05
Ей, знову обдурюють людей, як лохів з великими моделями.
AI-водний DeFAI зростання Безпекові виклики випробовують Web3 інновації
Поєднання AI та Web3 викликає нові виклики безпеки, DeFAI стає центром уваги
Нещодавно в Стамбулі відбулася блокчейн-конференція, присвячена тенденціям інтеграції AI та Web3. Експерти з компаній з безпеки, бухгалтерських фірм та блокчейн-проектів зібралися разом, щоб детально обговорити поточний стан застосування технологій AI у сфері децентралізованих фінансів (DeFi) та пов'язані з цим виклики безпеки.
Під час конференції "DeFAI"( децентралізовані фінанси на основі штучного інтелекту) стали гарячою темою для обговорення. З швидким розвитком великих мовних моделей( LLM) та AI-агентів, ця нова фінансова парадигма поступово формується. Однак, водночас, вона також несе нові можливості для атак та проблеми безпеки.
Експерт з безпеки зазначив: "DeFAI, хоча й має великі перспективи, змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, що базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів і є непередбачуваним. Це не тільки посилює ризики, але й створює можливості для зловмисників."
AI-агенти - це інтелектуальні системи, які можуть самостійно приймати рішення та виконувати дії на основі AI-логіки, зазвичай вони працюють за授权ом користувача, протоколу чи DAO. Наразі більшість AI-агентів працюють на базі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак. Як тільки агент буде захоплений, це не лише може призвести до втрати коштів, але й, можливо, вплине на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдинговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисники можуть спонукати агента розпочати термінове очищення, публікуючи фальшиві тривоги. Це не тільки призведе до втрати активів користувача, але й може викликати ринкову волатильність, яку зловмисники можуть ще більше використати.
Щодо цих ризиків, учасники конференції одностайно вважають, що безпека AI-агентів має бути спільною відповідальністю користувачів, розробників і сторонніх безпекових організацій. Користувачі повинні обережно надавати права доступу та перевіряти операції з високим ризиком; розробники повинні впроваджувати заходи захисту на етапі проектування; а сторонні безпекові компанії повинні надавати незалежний аудит та співпрацювати з усіма сторонами для виявлення ризиків і пропозиції заходів щодо їх зменшення.
Експерт попередив: "Якщо й далі розглядати AI-агентів як 'чорну скриньку', то інциденти безпеки у реальному світі – це лише питання часу." Він запропонував розробникам, які досліджують напрямок DeFAI: "Логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З розвитком технології блокчейн та поступовим удосконаленням регуляторного середовища, злиття AI та Web3 продовжить викликати більше уваги та обговорень. Галузі необхідно спільно працювати над інноваціями, одночасно приділяючи достатню увагу та реагуючи на можливі виклики безпеки.