Red Mira: Construir una capa de confianza en IA para resolver problemas de sesgo y alucinaciones

robot
Generación de resúmenes en curso

La capa de confianza de la IA: Cómo la red Mira resuelve los problemas de sesgo y alucinación de la IA

Recientemente, se lanzó oficialmente una red de pruebas pública llamada Mira, cuyo objetivo es construir una capa base de confianza para la IA. Esto nos lleva a preguntarnos: ¿por qué la IA necesita ser confiable? ¿Cómo aborda Mira este problema?

Al discutir sobre la IA, a menudo las personas se centran más en su poderosa capacidad. Sin embargo, una cuestión interesante y digna de atención es la "ilusión" o los prejuicios que existen en la IA. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA "inventa" cosas, hablando en serio de manera absurda. Por ejemplo, si preguntas a la IA por qué la luna es de color rosa, podría ofrecer una explicación que parece razonable pero que en realidad es ficticia.

La "ilusión" o los prejuicios de la IA están relacionados con ciertos caminos tecnológicos actuales de la IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero a veces no puede verificar su veracidad. Además, los datos de entrenamiento en sí pueden contener errores, prejuicios e incluso contenido ficticio, lo que también afecta la salida de la IA. En otras palabras, la IA aprende patrones de lenguaje humano, no hechos en sí.

El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente conllevan la posibilidad de ilusiones de IA. Para el contenido de conocimiento general o entretenimiento, esta salida sesgada o ilusoria puede no tener consecuencias directas a corto plazo. Sin embargo, si ocurre en campos altamente rigurosos como la medicina, el derecho, la aviación o las finanzas, puede tener un impacto significativo. Por lo tanto, cómo abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de desarrollo de la IA.

El proyecto Mira intenta abordar los problemas de sesgo y alucinaciones en la IA, construyendo una capa de confianza para la IA y mejorando su fiabilidad. Entonces, ¿cómo reduce Mira el sesgo y las alucinaciones de la IA y, en última instancia, logra una IA confiable?

El método central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA. Mira en sí es una red de verificación que valida la fiabilidad de la salida de la IA, y se basa en el consenso de múltiples modelos de IA. Otra característica importante es el uso de consenso descentralizado para la verificación.

La clave de la red Mira radica en la verificación de consenso descentralizada, que es la especialidad del campo de las criptomonedas. Al mismo tiempo, utiliza un enfoque de colaboración multimodal para reducir sesgos y alucinaciones a través de un modelo de verificación colectiva.

En términos de arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de verificación independientes. Los operadores de nodos participan en la verificación de estas declaraciones, asegurando el comportamiento honesto de los operadores de nodos a través de un mecanismo de incentivos/castigos económicos criptográficos. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.

La arquitectura de la red de Mira incluye conversión de contenido, verificación distribuida y mecanismos de consenso para lograr la fiabilidad de la verificación. La conversión de contenido es una parte importante de esto. La red de Mira primero descompone el contenido candidato en diferentes declaraciones verificables, las cuales son distribuidas por el sistema a los nodos para su verificación, a fin de determinar la validez de las declaraciones y resumir los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, la conversión del contenido candidato se descompone en pares de declaraciones que se asignan a diferentes nodos de manera aleatoria, evitando la filtración de información durante el proceso de verificación.

Los operadores de nodos son responsables de ejecutar el modelo de validación, procesar las declaraciones y enviar los resultados de la validación. Participan en la validación para obtener ganancias, que provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA; una vez que se logre este objetivo, podrá generar un gran valor en campos como la medicina, el derecho, la aviación y las finanzas. Para prevenir el comportamiento especulativo de respuestas aleatorias de nodos, se reducirán los tokens de participación de los nodos que se desvíen continuamente del consenso.

En general, Mira ofrece un nuevo enfoque para lograr la fiabilidad de la IA. Construye una red de verificación de consenso descentralizada basada en múltiples modelos de IA, proporcionando mayor fiabilidad a los servicios de IA de los clientes, reduciendo los sesgos y alucinaciones de la IA, y satisfaciendo la necesidad de los clientes de mayor precisión y exactitud. Al mismo tiempo, genera beneficios para los participantes de la red Mira, basado en el valor que proporciona a los clientes. En resumen, Mira intenta construir una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.

Actualmente, Mira ha colaborado con varios marcos de agentes de IA. Con el lanzamiento de la red de prueba pública de Mira, los usuarios pueden participar en las pruebas utilizando la aplicación de chat Klok basada en Mira, experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 8
  • Compartir
Comentar
0/400
P2ENotWorkingvip
· hace6h
Ah, otro concepto especulativo.
Ver originalesResponder0
CryptoTherapistvip
· 07-11 08:45
dejando que la IA cure el trauma de la IA... fascinante estudio de caso en terapia grupal digital
Ver originalesResponder0
TokenUnlockervip
· 07-10 15:50
La inteligencia artificial también debe ser honesta ahora.
Ver originalesResponder0
MondayYoloFridayCryvip
· 07-09 20:12
Mientras haya dinero para ganar, está bien... no perder es ganar.
Ver originalesResponder0
AirdropFreedomvip
· 07-09 20:12
¿Cómo se puede controlar la confianza en la IA?
Ver originalesResponder0
BlockchainRetirementHomevip
· 07-09 20:09
Al final, no es más que un juego de conceptos.
Ver originalesResponder0
RugPullAlarmvip
· 07-09 20:06
¿Este es el mecanismo de incentivos? Es idéntico a la trampa de los esquemas de financiación de 2018.
Ver originalesResponder0
MEV_Whisperervip
· 07-09 19:48
Son todos estafadores, cuida tu dinero.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)