Los proyectos de Web3 con concepto de IA se convierten en objetivos atractivos para captar fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola — a través de datos, almacenamiento y computación; al mismo tiempo, establecer modelos de código abierto y un mercado descentralizado para Agentes de IA.
La principal área de aplicación de la IA en la industria Web3 es la financiación en cadena (pagos criptográficos, transacciones, análisis de datos) y el desarrollo asistido.
La utilidad de AI+Web3 se refleja en la complementariedad de ambos: Web3 promete contrarrestar la centralización de AI, y AI promete ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido como si se hubiera presionado el botón de aceleración; este efecto mariposa provocado por Chatgpt no solo ha abierto un nuevo mundo de inteligencia artificial generativa, sino que también ha desatado una corriente en el Web3 al otro lado.
Con el impulso del concepto de IA, el financiamiento en el mercado de criptomonedas, que se ha desacelerado, ha mostrado un aumento notable. Según estadísticas de los medios, solo en la primera mitad de 2024, un total de 64 proyectos de Web3+IA completaron financiamiento, y el sistema operativo basado en inteligencia artificial Zyber365 logró un monto de financiamiento máximo de 100 millones de dólares en su ronda A.
El mercado secundario es más próspero, los datos de los sitios de agregación de criptomonedas muestran que en poco más de un año, el valor total de mercado de la pista de IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de 24 horas cercano a los 8,6 mil millones de dólares; los beneficios evidentes derivados de los avances en tecnologías de IA son claros, después del lanzamiento del modelo de OpenAI Sora que convierte texto en video, el precio promedio del sector de IA ha aumentado un 151%; el efecto de la IA también se ha extendido a uno de los sectores que atraen capital en criptomonedas, Meme: el primer concepto de MemeCoin de agente de IA—GOAT se volvió popular rápidamente y obtuvo una valoración de 1,4 mil millones de dólares, logrando un exitoso auge de los memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin, y ahora AI Agent y AI DAO. La emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
AI+Web3, una combinación de términos llenos de dinero caliente, salidas y fantasías futuras, se considera inevitablemente como un matrimonio concertado negociado por el capital.
Para responder a esta pregunta, una reflexión clave para ambas partes es: ¿mejorará al tener al otro? ¿Se puede beneficiar de los patrones del otro? En este artículo, también intentamos examinar este patrón desde la perspectiva de quienes nos precedieron: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila tecnológica de IA, y qué nueva vitalidad puede aportar la IA a Web3?
Parte 1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Expresando todo el proceso en un lenguaje más sencillo: el "gran modelo" es como el cerebro humano. En las primeras etapas, este cerebro pertenece a un bebé que acaba de llegar al mundo, necesita observar e ingerir una enorme cantidad de información del entorno para entender este mundo, que es la fase de "recopilación" de datos; dado que las computadoras no poseen los sentidos visuales y auditivos humanos, antes del entrenamiento, la gran cantidad de información no etiquetada del exterior debe transformarse a través de "preprocesamiento" en un formato de información que la computadora pueda entender y utilizar.
Después de ingresar los datos, la IA construyó un modelo con capacidades de comprensión y predicción a través del "entrenamiento", lo que se puede considerar como el proceso en el que un bebé gradualmente entiende y aprende sobre el mundo exterior. Los parámetros del modelo son como la capacidad lingüística que el bebé ajusta constantemente durante su proceso de aprendizaje. Cuando el contenido aprendido comienza a especializarse, o se recibe retroalimentación al comunicarse con otras personas y se realizan correcciones, se entra en la fase de "ajuste fino" del gran modelo.
Los niños, a medida que crecen y aprenden a hablar, pueden entender el significado y expresar sus sentimientos e ideas en nuevos diálogos. Esta etapa es similar al "razonamiento" de los modelos de IA de gran tamaño, donde el modelo puede predecir y analizar nuevas entradas de lenguaje y texto. Los bebés expresan sus sentimientos, describen objetos y resuelven diversos problemas a través de su capacidad lingüística, lo que también es similar a cómo los modelos de IA de gran tamaño se aplican en la fase de razonamiento a diversas tareas específicas después de completar el entrenamiento y ser utilizados, como la clasificación de imágenes y el reconocimiento de voz.
Y el AI Agent se acerca más a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo tiene la capacidad de pensar, sino que también puede recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de la IA en diversas capas, Web3 ha comenzado a formar un ecosistema interconectado y multicapas que abarca todas las etapas del proceso de modelos de IA.
Uno, Capa básica: Airbnb de poder de cálculo y datos
▎Potencia de cálculo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar modelos y para la inferencia.
Un ejemplo es que el LLAMA3 de Meta necesita 16,000 H100 GPU producidas por NVIDIA (que es una unidad de procesamiento gráfico de primer nivel diseñada para cargas de trabajo de inteligencia artificial y computación de alto rendimiento). Se necesitan 30 días para completar el entrenamiento. El precio unitario de la versión de 80 GB oscila entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de cálculo de entre 400 y 700 millones de dólares (GPU + chips de red), mientras que el entrenamiento mensual consume 1.6 mil millones de kilovatios hora, con gastos de energía de cerca de 20 millones de dólares al mes.
La descompresión de la potencia de cálculo de IA es precisamente uno de los primeros campos donde Web3 se cruza con la IA: DePin (red de infraestructura física descentralizada). Actualmente, el sitio de datos DePin Ninja ya ha presentado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia de GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
Su lógica principal radica en que la plataforma permite a individuos o entidades que poseen recursos de GPU ociosos contribuir con su capacidad de cálculo de manera descentralizada y sin necesidad de permiso, a través de un mercado en línea similar a Uber o Airbnb, aumentando la utilización de recursos de GPU que no se están aprovechando adecuadamente. Como resultado, los usuarios finales obtienen recursos de cálculo eficientes a un costo más bajo; al mismo tiempo, el mecanismo de staking también asegura que, si hay violaciones del mecanismo de control de calidad o interrupciones en la red, los proveedores de recursos recibirán las sanciones correspondientes.
Sus características son:
Reunir recursos de GPU ociosos: los proveedores son principalmente operadores de centros de datos independientes de tamaño pequeño y mediano, minas de criptomonedas, etc., que tienen recursos de potencia de cálculo excedentes, y el mecanismo de consenso es hardware de minería PoS, como las máquinas de minería de FileCoin y ETH. Actualmente, también hay proyectos dedicados a iniciar dispositivos con un umbral de entrada más bajo, como exolab, que utiliza dispositivos locales como MacBook, iPhone, iPad, etc., para establecer una red de potencia de cálculo para la inferencia de modelos grandes.
Enfrentando el mercado de cola larga de la potencia de cálculo de IA:
a. "Desde el punto de vista técnico", el mercado de potencia de cálculo descentralizada es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos que proporciona un clúster de GPU de gran escala, mientras que la inferencia requiere un rendimiento de cálculo de GPU relativamente bajo, como Aethir que se centra en trabajos de renderizado de baja latencia y aplicaciones de inferencia de IA.
b. Desde el punto de vista de la demanda, los demandantes de potencia de cálculo media no entrenarán sus propios modelos grandes de forma independiente, sino que simplemente elegirán optimizar y ajustar finamente en torno a unos pocos modelos grandes líderes, y estos escenarios son inherentemente adecuados para los recursos de potencia de cálculo distribuida ociosa.
Propiedad descentralizada: el significado técnico de la blockchain radica en que los propietarios de los recursos siempre mantienen el control sobre sus recursos, ajustándose de manera flexible según la demanda y obteniendo beneficios.
▎Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como una planta flotante, y la relación entre los datos y el modelo es como el dicho "Garbage in, Garbage out". La cantidad de datos y la calidad de la entrada determinan la calidad de la salida del modelo final. En el entrenamiento de los modelos de IA actuales, los datos determinan la capacidad lingüística, la capacidad de comprensión, e incluso los valores y la expresión humanizada del modelo. Actualmente, los desafíos en la demanda de datos para la IA se centran principalmente en los siguientes cuatro aspectos:
Hambre de datos: El entrenamiento de modelos de IA depende de una gran cantidad de datos de entrada. La información pública muestra que OpenAI entrenó GPT-4 con un número de parámetros que alcanza el nivel de billones.
Calidad de los datos: Con la integración de la IA en diversas industrias, la temporalidad de los datos, la diversidad de los datos, la especialización de los datos verticales y la incorporación de nuevas fuentes de datos como las emociones en redes sociales han planteado nuevos requisitos para su calidad.
Problemas de privacidad y cumplimiento: Actualmente, varios países y empresas están comenzando a notar la importancia de los conjuntos de datos de alta calidad y están restringiendo la recopilación de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y proceso de manejo complejo. Los datos públicos muestran que más del 30% de los costos de investigación y desarrollo de las empresas de IA se destinan a la recopilación y procesamiento de datos básicos.
Actualmente, las soluciones web3 se reflejan en los siguientes cuatro aspectos:
Recolección de datos: La disponibilidad de datos del mundo real que se pueden obtener de forma gratuita se está agotando rápidamente, y los gastos de las empresas de IA por datos están aumentando año tras año. Sin embargo, al mismo tiempo, estos gastos no se están reinvirtiendo en los verdaderos contribuyentes de datos, y las plataformas disfrutan completamente de la creación de valor que los datos aportan, como Reddit, que logró ingresos totales de 203 millones de dólares mediante acuerdos de autorización de datos con empresas de IA.
La visión de Web3 es permitir que los usuarios que realmente contribuyen participen en la creación de valor que aporta los datos, así como obtener datos más privados y valiosos de los usuarios de una manera de bajo costo a través de redes distribuidas y mecanismos de incentivos.
Grass es una capa de datos y red descentralizada, donde los usuarios pueden contribuir con ancho de banda ocioso y tráfico de retransmisión ejecutando nodos de Grass para capturar datos en tiempo real de toda la internet y obtener recompensas en tokens;
Vana introduce un concepto único de piscina de liquidez de datos (DLP), donde los usuarios pueden subir sus datos privados (como registros de compras, hábitos de navegación, actividades en redes sociales, etc.) a un DLP específico y elegir de manera flexible si autorizan o no el uso de estos datos por parte de terceros específicos;
En PublicAI, los usuarios pueden usar #AI 或#Web3 como etiqueta de clasificación en X y @PublicAI para realizar la recolección de datos.
Preprocesamiento de datos: En el proceso de tratamiento de datos de la IA, dado que los datos recopilados suelen ser ruidosos y contener errores, deben limpiarse y transformarse en un formato utilizable antes de entrenar el modelo, lo que implica tareas repetitivas de normalización, filtrado y tratamiento de valores faltantes. Esta fase es uno de los pocos eslabones manuales en la industria de la IA, lo que ha dado lugar a la industria de los etiquetadores de datos. A medida que los modelos aumentan sus exigencias sobre la calidad de los datos, también se eleva el umbral para los etiquetadores de datos, y esta tarea es naturalmente adecuada para el mecanismo de incentivos descentralizados de Web3.
Actualmente, Grass y OpenLayer están considerando unirse a esta etapa clave de la anotación de datos.
Synesis ha propuesto el concepto de "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras formas de entrada.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Privacidad y seguridad de los datos: Es importante aclarar que la privacidad de los datos y la seguridad de los datos son dos conceptos diferentes. La privacidad de los datos se refiere al manejo de datos sensibles, mientras que la seguridad de los datos protege la información de los datos contra el acceso no autorizado, la destrucción y el robo. Por lo tanto, las ventajas de la tecnología de privacidad de Web3 y sus posibles escenarios de aplicación se reflejan en dos aspectos: (1) Entrenamiento de datos sensibles; (2) Colaboración de datos: múltiples propietarios de datos pueden participar conjuntamente en el entrenamiento de IA sin necesidad de compartir sus datos originales.
Las tecnologías de privacidad más comunes en Web3 actualmente incluyen:
Entorno de Ejecución Confiable ( TEE ), como Super Protocol;
Cifrado completamente homomórfico (FHE), por ejemplo, BasedAI, Fhenix.io o Inco Network;
La tecnología de conocimiento cero (zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero del tráfico HTTPS, permitiendo a los usuarios importar de manera segura datos de actividad, reputación e identidad desde sitios web externos, sin exponer información sensible.
Sin embargo, actualmente este campo todavía se encuentra en una etapa temprana, la mayoría de los proyectos aún están en exploración, un dilema actual es que el costo de cálculo es demasiado alto, algunos ejemplos son:
marco zkML E
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
19 me gusta
Recompensa
19
5
Compartir
Comentar
0/400
Ser_Liquidated
· hace13h
¿Qué se está exagerando? Todo es contar historias de Arbitraje.
Ver originalesResponder0
NotFinancialAdviser
· hace13h
¿A quién le importa si ai ganó mucho en web3?
Ver originalesResponder0
RetiredMiner
· hace13h
también solo gané un poco de moneda scam
Ver originalesResponder0
SmartContractPhobia
· hace13h
Descentralización ignora, ¿verdad?
Ver originalesResponder0
AirdropChaser
· hace13h
tomar a la gente por tonta y seguir siendo la misma gente del mundo Cripto
La intersección de la IA y Web3: nuevas oportunidades y empoderamiento mutuo
AI+Web3: Torres y plazas
TL;DR
Los proyectos de Web3 con concepto de IA se convierten en objetivos atractivos para captar fondos en los mercados primario y secundario.
Las oportunidades de Web3 en la industria de la IA se reflejan en: utilizar incentivos distribuidos para coordinar el suministro potencial en la larga cola — a través de datos, almacenamiento y computación; al mismo tiempo, establecer modelos de código abierto y un mercado descentralizado para Agentes de IA.
La principal área de aplicación de la IA en la industria Web3 es la financiación en cadena (pagos criptográficos, transacciones, análisis de datos) y el desarrollo asistido.
La utilidad de AI+Web3 se refleja en la complementariedad de ambos: Web3 promete contrarrestar la centralización de AI, y AI promete ayudar a Web3 a romper barreras.
Introducción
En los últimos dos años, el desarrollo de la IA ha sido como si se hubiera presionado el botón de aceleración; este efecto mariposa provocado por Chatgpt no solo ha abierto un nuevo mundo de inteligencia artificial generativa, sino que también ha desatado una corriente en el Web3 al otro lado.
Con el impulso del concepto de IA, el financiamiento en el mercado de criptomonedas, que se ha desacelerado, ha mostrado un aumento notable. Según estadísticas de los medios, solo en la primera mitad de 2024, un total de 64 proyectos de Web3+IA completaron financiamiento, y el sistema operativo basado en inteligencia artificial Zyber365 logró un monto de financiamiento máximo de 100 millones de dólares en su ronda A.
El mercado secundario es más próspero, los datos de los sitios de agregación de criptomonedas muestran que en poco más de un año, el valor total de mercado de la pista de IA ha alcanzado los 48,5 mil millones de dólares, con un volumen de transacciones de 24 horas cercano a los 8,6 mil millones de dólares; los beneficios evidentes derivados de los avances en tecnologías de IA son claros, después del lanzamiento del modelo de OpenAI Sora que convierte texto en video, el precio promedio del sector de IA ha aumentado un 151%; el efecto de la IA también se ha extendido a uno de los sectores que atraen capital en criptomonedas, Meme: el primer concepto de MemeCoin de agente de IA—GOAT se volvió popular rápidamente y obtuvo una valoración de 1,4 mil millones de dólares, logrando un exitoso auge de los memes de IA.
La investigación y los temas sobre AI+Web3 también están en auge, desde AI+Depin hasta AI Memecoin, y ahora AI Agent y AI DAO. La emoción de FOMO ya no puede seguir el ritmo de la rotación de nuevas narrativas.
AI+Web3, una combinación de términos llenos de dinero caliente, salidas y fantasías futuras, se considera inevitablemente como un matrimonio concertado negociado por el capital.
Para responder a esta pregunta, una reflexión clave para ambas partes es: ¿mejorará al tener al otro? ¿Se puede beneficiar de los patrones del otro? En este artículo, también intentamos examinar este patrón desde la perspectiva de quienes nos precedieron: ¿cómo puede Web3 desempeñar un papel en cada etapa de la pila tecnológica de IA, y qué nueva vitalidad puede aportar la IA a Web3?
Parte 1 ¿Qué oportunidades hay en Web3 bajo la pila de IA?
Antes de abordar este tema, necesitamos entender la pila tecnológica de los grandes modelos de IA:
Expresando todo el proceso en un lenguaje más sencillo: el "gran modelo" es como el cerebro humano. En las primeras etapas, este cerebro pertenece a un bebé que acaba de llegar al mundo, necesita observar e ingerir una enorme cantidad de información del entorno para entender este mundo, que es la fase de "recopilación" de datos; dado que las computadoras no poseen los sentidos visuales y auditivos humanos, antes del entrenamiento, la gran cantidad de información no etiquetada del exterior debe transformarse a través de "preprocesamiento" en un formato de información que la computadora pueda entender y utilizar.
Después de ingresar los datos, la IA construyó un modelo con capacidades de comprensión y predicción a través del "entrenamiento", lo que se puede considerar como el proceso en el que un bebé gradualmente entiende y aprende sobre el mundo exterior. Los parámetros del modelo son como la capacidad lingüística que el bebé ajusta constantemente durante su proceso de aprendizaje. Cuando el contenido aprendido comienza a especializarse, o se recibe retroalimentación al comunicarse con otras personas y se realizan correcciones, se entra en la fase de "ajuste fino" del gran modelo.
Los niños, a medida que crecen y aprenden a hablar, pueden entender el significado y expresar sus sentimientos e ideas en nuevos diálogos. Esta etapa es similar al "razonamiento" de los modelos de IA de gran tamaño, donde el modelo puede predecir y analizar nuevas entradas de lenguaje y texto. Los bebés expresan sus sentimientos, describen objetos y resuelven diversos problemas a través de su capacidad lingüística, lo que también es similar a cómo los modelos de IA de gran tamaño se aplican en la fase de razonamiento a diversas tareas específicas después de completar el entrenamiento y ser utilizados, como la clasificación de imágenes y el reconocimiento de voz.
Y el AI Agent se acerca más a la próxima forma de los grandes modelos: capaz de ejecutar tareas de forma independiente y perseguir objetivos complejos, no solo tiene la capacidad de pensar, sino que también puede recordar, planificar y utilizar herramientas para interactuar con el mundo.
Actualmente, en respuesta a los puntos críticos de la IA en diversas capas, Web3 ha comenzado a formar un ecosistema interconectado y multicapas que abarca todas las etapas del proceso de modelos de IA.
Uno, Capa básica: Airbnb de poder de cálculo y datos
▎Potencia de cálculo
Actualmente, uno de los costos más altos de la IA es la potencia de cálculo y la energía necesarias para entrenar modelos y para la inferencia.
Un ejemplo es que el LLAMA3 de Meta necesita 16,000 H100 GPU producidas por NVIDIA (que es una unidad de procesamiento gráfico de primer nivel diseñada para cargas de trabajo de inteligencia artificial y computación de alto rendimiento). Se necesitan 30 días para completar el entrenamiento. El precio unitario de la versión de 80 GB oscila entre 30,000 y 40,000 dólares, lo que requiere una inversión en hardware de cálculo de entre 400 y 700 millones de dólares (GPU + chips de red), mientras que el entrenamiento mensual consume 1.6 mil millones de kilovatios hora, con gastos de energía de cerca de 20 millones de dólares al mes.
La descompresión de la potencia de cálculo de IA es precisamente uno de los primeros campos donde Web3 se cruza con la IA: DePin (red de infraestructura física descentralizada). Actualmente, el sitio de datos DePin Ninja ya ha presentado más de 1400 proyectos, entre los cuales los proyectos representativos de compartición de potencia de GPU incluyen io.net, Aethir, Akash, Render Network, entre otros.
Su lógica principal radica en que la plataforma permite a individuos o entidades que poseen recursos de GPU ociosos contribuir con su capacidad de cálculo de manera descentralizada y sin necesidad de permiso, a través de un mercado en línea similar a Uber o Airbnb, aumentando la utilización de recursos de GPU que no se están aprovechando adecuadamente. Como resultado, los usuarios finales obtienen recursos de cálculo eficientes a un costo más bajo; al mismo tiempo, el mecanismo de staking también asegura que, si hay violaciones del mecanismo de control de calidad o interrupciones en la red, los proveedores de recursos recibirán las sanciones correspondientes.
Sus características son:
Reunir recursos de GPU ociosos: los proveedores son principalmente operadores de centros de datos independientes de tamaño pequeño y mediano, minas de criptomonedas, etc., que tienen recursos de potencia de cálculo excedentes, y el mecanismo de consenso es hardware de minería PoS, como las máquinas de minería de FileCoin y ETH. Actualmente, también hay proyectos dedicados a iniciar dispositivos con un umbral de entrada más bajo, como exolab, que utiliza dispositivos locales como MacBook, iPhone, iPad, etc., para establecer una red de potencia de cálculo para la inferencia de modelos grandes.
Enfrentando el mercado de cola larga de la potencia de cálculo de IA:
a. "Desde el punto de vista técnico", el mercado de potencia de cálculo descentralizada es más adecuado para los pasos de inferencia. El entrenamiento depende más de la capacidad de procesamiento de datos que proporciona un clúster de GPU de gran escala, mientras que la inferencia requiere un rendimiento de cálculo de GPU relativamente bajo, como Aethir que se centra en trabajos de renderizado de baja latencia y aplicaciones de inferencia de IA.
b. Desde el punto de vista de la demanda, los demandantes de potencia de cálculo media no entrenarán sus propios modelos grandes de forma independiente, sino que simplemente elegirán optimizar y ajustar finamente en torno a unos pocos modelos grandes líderes, y estos escenarios son inherentemente adecuados para los recursos de potencia de cálculo distribuida ociosa.
▎Datos
Los datos son la base de la IA. Sin datos, el cálculo es tan inútil como una planta flotante, y la relación entre los datos y el modelo es como el dicho "Garbage in, Garbage out". La cantidad de datos y la calidad de la entrada determinan la calidad de la salida del modelo final. En el entrenamiento de los modelos de IA actuales, los datos determinan la capacidad lingüística, la capacidad de comprensión, e incluso los valores y la expresión humanizada del modelo. Actualmente, los desafíos en la demanda de datos para la IA se centran principalmente en los siguientes cuatro aspectos:
Hambre de datos: El entrenamiento de modelos de IA depende de una gran cantidad de datos de entrada. La información pública muestra que OpenAI entrenó GPT-4 con un número de parámetros que alcanza el nivel de billones.
Calidad de los datos: Con la integración de la IA en diversas industrias, la temporalidad de los datos, la diversidad de los datos, la especialización de los datos verticales y la incorporación de nuevas fuentes de datos como las emociones en redes sociales han planteado nuevos requisitos para su calidad.
Problemas de privacidad y cumplimiento: Actualmente, varios países y empresas están comenzando a notar la importancia de los conjuntos de datos de alta calidad y están restringiendo la recopilación de conjuntos de datos.
Alto costo de procesamiento de datos: gran volumen de datos y proceso de manejo complejo. Los datos públicos muestran que más del 30% de los costos de investigación y desarrollo de las empresas de IA se destinan a la recopilación y procesamiento de datos básicos.
Actualmente, las soluciones web3 se reflejan en los siguientes cuatro aspectos:
La visión de Web3 es permitir que los usuarios que realmente contribuyen participen en la creación de valor que aporta los datos, así como obtener datos más privados y valiosos de los usuarios de una manera de bajo costo a través de redes distribuidas y mecanismos de incentivos.
Grass es una capa de datos y red descentralizada, donde los usuarios pueden contribuir con ancho de banda ocioso y tráfico de retransmisión ejecutando nodos de Grass para capturar datos en tiempo real de toda la internet y obtener recompensas en tokens;
Vana introduce un concepto único de piscina de liquidez de datos (DLP), donde los usuarios pueden subir sus datos privados (como registros de compras, hábitos de navegación, actividades en redes sociales, etc.) a un DLP específico y elegir de manera flexible si autorizan o no el uso de estos datos por parte de terceros específicos;
En PublicAI, los usuarios pueden usar #AI 或#Web3 como etiqueta de clasificación en X y @PublicAI para realizar la recolección de datos.
Actualmente, Grass y OpenLayer están considerando unirse a esta etapa clave de la anotación de datos.
Synesis ha propuesto el concepto de "Train2earn", enfatizando la calidad de los datos. Los usuarios pueden obtener recompensas al proporcionar datos etiquetados, comentarios u otras formas de entrada.
El proyecto de etiquetado de datos Sapien gamifica las tareas de etiquetado y permite a los usuarios apostar puntos para ganar más puntos.
Las tecnologías de privacidad más comunes en Web3 actualmente incluyen:
Entorno de Ejecución Confiable ( TEE ), como Super Protocol;
Cifrado completamente homomórfico (FHE), por ejemplo, BasedAI, Fhenix.io o Inco Network;
La tecnología de conocimiento cero (zk), como el Protocolo Reclaim que utiliza la tecnología zkTLS, genera pruebas de conocimiento cero del tráfico HTTPS, permitiendo a los usuarios importar de manera segura datos de actividad, reputación e identidad desde sitios web externos, sin exponer información sensible.
Sin embargo, actualmente este campo todavía se encuentra en una etapa temprana, la mayoría de los proyectos aún están en exploración, un dilema actual es que el costo de cálculo es demasiado alto, algunos ejemplos son: