Desafíos de seguridad en la tendencia de fusión de AI y Web3
Recientemente, durante el evento de la Semana Blockchain celebrado en Estambul, expertos de la industria llevaron a cabo una profunda discusión sobre la tendencia de la fusión entre la inteligencia artificial y Web3, prestando especial atención a los nuevos desafíos de seguridad que surgen en esta tendencia.
Con el rápido desarrollo de los grandes modelos de lenguaje y los agentes de IA, está surgiendo un nuevo modelo financiero conocido como "DeFAI" (finanzas de inteligencia artificial descentralizada). Esta innovación, aunque tiene un amplio potencial, también ha traído nuevos riesgos de seguridad y superficies de ataque.
Los expertos señalan que, a diferencia de los contratos inteligentes tradicionales basados en lógica fija, el proceso de toma de decisiones de los agentes de IA se ve influenciado por múltiples factores, incluidos el contexto, el tiempo y incluso las interacciones históricas. Esta imprevisibilidad no solo aumenta el riesgo, sino que también ofrece oportunidades para posibles atacantes.
Los agentes de IA son, en esencia, entidades inteligentes capaces de tomar decisiones y ejecutar acciones de forma autónoma basadas en la lógica de IA, y generalmente son autorizados para funcionar por usuarios, protocolos u organizaciones autónomas descentralizadas. Entre ellos, los robots de comercio de IA son los más representativos. Actualmente, la mayoría de los agentes de IA todavía funcionan en una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace susceptibles a diversos ataques, como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que un agente de IA es secuestrado, no solo puede resultar en la pérdida de fondos, sino que también puede afectar la estabilidad de todo el protocolo.
Los expertos ilustran un escenario típico de ataque: cuando un agente de trading de IA que ejecutan los usuarios de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante podría publicar falsas alarmas, como afirmar que un protocolo está siendo atacado. Esto podría inducir al agente de IA a iniciar inmediatamente una operación de liquidación de emergencia, lo que no solo resultaría en pérdidas de activos para el usuario, sino que también podría provocar una volatilidad en el mercado, que el atacante podría aprovechar mediante técnicas como el front running.
En relación con estos riesgos, los expertos coinciden en que la seguridad de los agentes de IA no debe ser responsabilidad de una sola parte, sino que requiere el esfuerzo conjunto de los usuarios, desarrolladores y agencias de seguridad de terceros.
Los usuarios deben comprender claramente el alcance de los permisos que tiene el agente, otorgar autorizaciones con precaución y prestar atención a la revisión de las operaciones de alto riesgo del agente de IA. Los desarrolladores deben implementar medidas de defensa desde la etapa de diseño, como refuerzo de indicaciones, aislamiento en sandbox, limitación de velocidad y lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, y colaborar con los desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Para los desarrolladores que están explorando la dirección de DeFAI, los expertos sugieren considerar a los agentes de IA como código que podría ser atacado, en lugar de un "caja negra". Por lo tanto, al igual que los contratos inteligentes, los agentes de IA también necesitan una auditoría de seguridad profesional y pruebas de penetración para garantizar su seguridad y fiabilidad.
Con la profunda fusión de la IA y Web3, los desafíos de seguridad continuarán evolucionando. Los profesionales de la industria hacen un llamado a todas las partes para que se mantengan alerta y trabajen juntos para construir un ecosistema financiero de inteligencia artificial descentralizada más seguro y confiable.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
5 me gusta
Recompensa
5
5
Republicar
Compartir
Comentar
0/400
BlockDetective
· hace14h
Este DeFAI se siente peligroso.
Ver originalesResponder0
SigmaBrain
· hace14h
Esta IA entiende todo, solo que no tiene inteligencia.
Ver originalesResponder0
TokenTaxonomist
· hace14h
hablando estadísticamente, la tasa de mutación de los agentes de ia plantea un riesgo de seguridad un 73.4% mayor que los contratos inteligentes tradicionales... déjame actualizar mi matriz de riesgos
Ver originalesResponder0
NeverPresent
· hace14h
Bots roban trabajos demasiado rápido
Ver originalesResponder0
SmartContractRebel
· hace14h
Todavía depende de la auditoría de seguridad, de lo contrario, explotará.
Desafíos de seguridad de DeFAI y estrategias de respuesta bajo la fusión de la IA y Web3
Desafíos de seguridad en la tendencia de fusión de AI y Web3
Recientemente, durante el evento de la Semana Blockchain celebrado en Estambul, expertos de la industria llevaron a cabo una profunda discusión sobre la tendencia de la fusión entre la inteligencia artificial y Web3, prestando especial atención a los nuevos desafíos de seguridad que surgen en esta tendencia.
Con el rápido desarrollo de los grandes modelos de lenguaje y los agentes de IA, está surgiendo un nuevo modelo financiero conocido como "DeFAI" (finanzas de inteligencia artificial descentralizada). Esta innovación, aunque tiene un amplio potencial, también ha traído nuevos riesgos de seguridad y superficies de ataque.
Los expertos señalan que, a diferencia de los contratos inteligentes tradicionales basados en lógica fija, el proceso de toma de decisiones de los agentes de IA se ve influenciado por múltiples factores, incluidos el contexto, el tiempo y incluso las interacciones históricas. Esta imprevisibilidad no solo aumenta el riesgo, sino que también ofrece oportunidades para posibles atacantes.
Los agentes de IA son, en esencia, entidades inteligentes capaces de tomar decisiones y ejecutar acciones de forma autónoma basadas en la lógica de IA, y generalmente son autorizados para funcionar por usuarios, protocolos u organizaciones autónomas descentralizadas. Entre ellos, los robots de comercio de IA son los más representativos. Actualmente, la mayoría de los agentes de IA todavía funcionan en una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace susceptibles a diversos ataques, como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que un agente de IA es secuestrado, no solo puede resultar en la pérdida de fondos, sino que también puede afectar la estabilidad de todo el protocolo.
Los expertos ilustran un escenario típico de ataque: cuando un agente de trading de IA que ejecutan los usuarios de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante podría publicar falsas alarmas, como afirmar que un protocolo está siendo atacado. Esto podría inducir al agente de IA a iniciar inmediatamente una operación de liquidación de emergencia, lo que no solo resultaría en pérdidas de activos para el usuario, sino que también podría provocar una volatilidad en el mercado, que el atacante podría aprovechar mediante técnicas como el front running.
En relación con estos riesgos, los expertos coinciden en que la seguridad de los agentes de IA no debe ser responsabilidad de una sola parte, sino que requiere el esfuerzo conjunto de los usuarios, desarrolladores y agencias de seguridad de terceros.
Los usuarios deben comprender claramente el alcance de los permisos que tiene el agente, otorgar autorizaciones con precaución y prestar atención a la revisión de las operaciones de alto riesgo del agente de IA. Los desarrolladores deben implementar medidas de defensa desde la etapa de diseño, como refuerzo de indicaciones, aislamiento en sandbox, limitación de velocidad y lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, y colaborar con los desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Para los desarrolladores que están explorando la dirección de DeFAI, los expertos sugieren considerar a los agentes de IA como código que podría ser atacado, en lugar de un "caja negra". Por lo tanto, al igual que los contratos inteligentes, los agentes de IA también necesitan una auditoría de seguridad profesional y pruebas de penetración para garantizar su seguridad y fiabilidad.
Con la profunda fusión de la IA y Web3, los desafíos de seguridad continuarán evolucionando. Los profesionales de la industria hacen un llamado a todas las partes para que se mantengan alerta y trabajen juntos para construir un ecosistema financiero de inteligencia artificial descentralizada más seguro y confiable.