Novos desafios de segurança na tendência de fusão entre AI e Web3
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) focou na tendência de fusão entre IA e Web3, tornando-se uma plataforma importante para discussões na área de segurança do Web3 este ano. Durante o evento de dois dias, vários especialistas da indústria realizaram uma discussão aprofundada sobre o estado atual da aplicação da tecnologia de IA nas finanças descentralizadas (DeFi) e os desafios de segurança.
Com o rápido desenvolvimento dos modelos de linguagem de grande escala (LLM) e dos agentes de IA, um novo paradigma financeiro emergente - Finanças Descentralizadas de Inteligência Artificial (DeFAI) - está a tomar forma. No entanto, esta inovação também trouxe novas superfícies de ataque e riscos de segurança.
Os especialistas presentes apontaram que, embora o DeFAI tenha um futuro promissor, também nos exige reexaminar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo pelas interações passadas; essa imprevisibilidade não apenas agrava os riscos, mas também cria oportunidades para os atacantes.
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base na lógica da IA, normalmente autorizadas a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera em cima de uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não só podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
O fórum mencionou um cenário típico de ataque: quando um agente de negociação de IA que os usuários de DeFi estão a executar está a monitorizar mensagens nas redes sociais como sinais de negociação, os atacantes podem publicar alarmes falsos, como "um determinado protocolo foi atacado", induzindo o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só resultará na perda de ativos dos usuários, como também provocará volatilidade no mercado, que poderá ser explorada pelos atacantes através da negociação antecipada (Front Running).
Em relação a esses riscos, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser de responsabilidade única de uma parte, mas sim uma responsabilidade compartilhada entre usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários devem entender claramente o alcance das permissões que o agente possui, concedendo permissões com cautela e prestando atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa desde a fase de design, como: robustez das palavras-chave, isolamento em sandbox, limitação de taxa e lógica de retrocesso, entre outros mecanismos. E empresas de segurança de terceiros devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em cadeia, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Especialistas alertam: "Se continuarmos a tratar os agentes de IA como uma 'caixa-preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão a explorar a direção do DeFAI, a recomendação é: "Assim como com os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Sendo código, há a possibilidade de ser atacado, portanto é necessário realizar auditorias de segurança e testes de penetração profissionalmente."
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu um total de mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo. Este ano, com o lançamento oficial da emissão de licenças de projetos de blockchain pela Comissão de Mercados de Capitais da Turquia (CMB), a posição do IBW na indústria foi ainda mais elevada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
8
Compartilhar
Comentário
0/400
SmartContractWorker
· 07-20 21:28
Risco risco risco, já começou a soprar.
Ver originalResponder0
SerumSurfer
· 07-20 19:59
Mais uma vez a culpa está a ser colocada na IA.
Ver originalResponder0
GasFeeVictim
· 07-17 21:55
idiotas também devem reconhecer a situação~
Ver originalResponder0
ContractCollector
· 07-17 21:54
Segurança? Ha, todos os contratos inteligentes sem segurança já morreram.
Ver originalResponder0
LoneValidator
· 07-17 21:53
Como lidar com a intensificação da regulamentação?
Integração de IA e Web3: Novos desafios de segurança na era DeFAI
Novos desafios de segurança na tendência de fusão entre AI e Web3
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) focou na tendência de fusão entre IA e Web3, tornando-se uma plataforma importante para discussões na área de segurança do Web3 este ano. Durante o evento de dois dias, vários especialistas da indústria realizaram uma discussão aprofundada sobre o estado atual da aplicação da tecnologia de IA nas finanças descentralizadas (DeFi) e os desafios de segurança.
Com o rápido desenvolvimento dos modelos de linguagem de grande escala (LLM) e dos agentes de IA, um novo paradigma financeiro emergente - Finanças Descentralizadas de Inteligência Artificial (DeFAI) - está a tomar forma. No entanto, esta inovação também trouxe novas superfícies de ataque e riscos de segurança.
Os especialistas presentes apontaram que, embora o DeFAI tenha um futuro promissor, também nos exige reexaminar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo pelas interações passadas; essa imprevisibilidade não apenas agrava os riscos, mas também cria oportunidades para os atacantes.
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base na lógica da IA, normalmente autorizadas a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera em cima de uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não só podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
O fórum mencionou um cenário típico de ataque: quando um agente de negociação de IA que os usuários de DeFi estão a executar está a monitorizar mensagens nas redes sociais como sinais de negociação, os atacantes podem publicar alarmes falsos, como "um determinado protocolo foi atacado", induzindo o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só resultará na perda de ativos dos usuários, como também provocará volatilidade no mercado, que poderá ser explorada pelos atacantes através da negociação antecipada (Front Running).
Em relação a esses riscos, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser de responsabilidade única de uma parte, mas sim uma responsabilidade compartilhada entre usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários devem entender claramente o alcance das permissões que o agente possui, concedendo permissões com cautela e prestando atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa desde a fase de design, como: robustez das palavras-chave, isolamento em sandbox, limitação de taxa e lógica de retrocesso, entre outros mecanismos. E empresas de segurança de terceiros devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em cadeia, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Especialistas alertam: "Se continuarmos a tratar os agentes de IA como uma 'caixa-preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão a explorar a direção do DeFAI, a recomendação é: "Assim como com os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Sendo código, há a possibilidade de ser atacado, portanto é necessário realizar auditorias de segurança e testes de penetração profissionalmente."
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu um total de mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo. Este ano, com o lançamento oficial da emissão de licenças de projetos de blockchain pela Comissão de Mercados de Capitais da Turquia (CMB), a posição do IBW na indústria foi ainda mais elevada.