Camada de Confiança da IA: Como a Rede Mira Resolve os Problemas de Viés e Ilusão da IA
Recentemente, foi lançado um teste público da rede chamada Mira, que despertou a atenção da indústria para a questão da confiabilidade da IA. O objetivo da rede Mira é construir uma camada de confiança para a IA, abordando os problemas de "alucinações" e preconceitos existentes na IA. Então, por que a IA precisa ser confiável? Como a Mira resolve esse problema?
Ao discutir a IA, as pessoas geralmente se concentram mais em suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA costuma ser ignorado. O que se chama de "alucinações" da IA, simplificadamente, é que a IA às vezes "inventa" informações, falando absurdos com toda a seriedade. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode dar uma explicação que parece razoável, mas que na realidade não tem fundamento.
A "ilusão" ou preconceito que surge na IA está relacionada ao caminho tecnológico atual da IA. A IA generativa produz saídas prevendo o conteúdo "mais provável" para alcançar coerência e razoabilidade, mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até conteúdo fictício, o que também influencia as saídas da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não fatos em si.
Os atuais mecanismos de geração de probabilidades e os modelos baseados em dados quase inevitavelmente levam a IA a produzir alucinações. Se essas saídas tendenciosas ou alucinatórias se limitarem a conhecimento geral ou conteúdo de entretenimento, não haverá consequências graves a curto prazo. No entanto, se ocorrerem em áreas rigorosas como saúde, direito, aviação e finanças, podem ter um impacto significativo. Portanto, resolver as alucinações e os preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira está precisamente a tentar resolver este problema. Ele reduz os preconceitos e alucinações da IA, melhorando a fiabilidade da IA ao construir uma camada de confiança. A estratégia central da Mira é utilizar o consenso de vários modelos de IA para verificar a saída da IA. Essencialmente, é uma rede de validação que verifica a fiabilidade da saída da IA através de um consenso descentralizado.
A chave da rede Mira está na validação de consenso descentralizada. Este método baseia-se em tecnologias do campo da criptografia, aproveitando ao mesmo tempo as vantagens da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modo de verificação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de verificação independentes. Os operadores de nós participam na verificação dessas declarações, garantindo a honestidade dos operadores através de incentivos e mecanismos de penalização na economia criptográfica. Diferentes modelos de IA e operadores de nós descentralizados participam em conjunto para assegurar a fiabilidade dos resultados da verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em declarações verificáveis, que são então distribuídas para os nós para validação. Os nós determinam a validade das declarações e agregam os resultados para alcançar consenso, retornando finalmente os resultados ao cliente. Para proteger a privacidade do cliente, as declarações são distribuídas aleatoriamente em fragmentos para diferentes nós.
Os operadores de nós obtêm ganhos ao executar modelos de validadores, processar declarações e submeter resultados de validação. Esses ganhos vêm do valor criado para os clientes, principalmente refletido na redução da taxa de erro da IA em áreas críticas. Os clientes estão dispostos a pagar por isso, mas a sustentabilidade e a escala dos pagamentos dependem da capacidade da rede Mira de continuar a trazer valor aos clientes. Para evitar respostas aleatórias dos nós, o sistema penaliza nós que se afastam continuamente do consenso, garantindo a participação honesta.
No geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior confiabilidade para os serviços de IA dos clientes, reduzindo os preconceitos e alucinações da IA, e atendendo à demanda por maior precisão e exatidão. Isso não apenas cria valor para os clientes, mas também traz benefícios para os participantes da rede. O objetivo central da Mira é construir uma camada de confiança para a IA, promovendo o desenvolvimento profundo das aplicações de IA.
Atualmente, a Mira já firmou parcerias com várias estruturas de agentes de IA. Os usuários podem participar da rede de testes públicos através do Klok (um aplicativo de chat LLM baseado na Mira), experimentar saídas de IA validadas e ter a oportunidade de ganhar pontos Mira. Os futuros usos desses pontos ainda não foram divulgados, mas sem dúvida oferecem um incentivo adicional para a participação dos usuários.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
5
Partilhar
Comentar
0/400
LiquidityNinja
· 07-09 05:39
Consenso confiável, hehe
Ver originalResponder0
SellLowExpert
· 07-07 06:20
Negociação de criptomoedas亏到黑眼圈都熬出来了 惨 失眠 冲击无本Perda de corte纪录中~
Use language: 中文
生成评论:
AI也会Ser enganado por idiotas吗
Ver originalResponder0
TommyTeacher1
· 07-07 06:17
Vamos falar depois de um ano...
Ver originalResponder0
LayerZeroHero
· 07-07 06:17
Então, a IA ainda precisa de validação de consenso??
Ver originalResponder0
BlockchainRetirementHome
· 07-07 06:01
Mais uma vez? Enganando-se a si mesmo todos os dias.
Rede Mira constrói camada de confiança em IA para resolver problemas de alucinações e preconceitos
Camada de Confiança da IA: Como a Rede Mira Resolve os Problemas de Viés e Ilusão da IA
Recentemente, foi lançado um teste público da rede chamada Mira, que despertou a atenção da indústria para a questão da confiabilidade da IA. O objetivo da rede Mira é construir uma camada de confiança para a IA, abordando os problemas de "alucinações" e preconceitos existentes na IA. Então, por que a IA precisa ser confiável? Como a Mira resolve esse problema?
Ao discutir a IA, as pessoas geralmente se concentram mais em suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA costuma ser ignorado. O que se chama de "alucinações" da IA, simplificadamente, é que a IA às vezes "inventa" informações, falando absurdos com toda a seriedade. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode dar uma explicação que parece razoável, mas que na realidade não tem fundamento.
A "ilusão" ou preconceito que surge na IA está relacionada ao caminho tecnológico atual da IA. A IA generativa produz saídas prevendo o conteúdo "mais provável" para alcançar coerência e razoabilidade, mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até conteúdo fictício, o que também influencia as saídas da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não fatos em si.
Os atuais mecanismos de geração de probabilidades e os modelos baseados em dados quase inevitavelmente levam a IA a produzir alucinações. Se essas saídas tendenciosas ou alucinatórias se limitarem a conhecimento geral ou conteúdo de entretenimento, não haverá consequências graves a curto prazo. No entanto, se ocorrerem em áreas rigorosas como saúde, direito, aviação e finanças, podem ter um impacto significativo. Portanto, resolver as alucinações e os preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira está precisamente a tentar resolver este problema. Ele reduz os preconceitos e alucinações da IA, melhorando a fiabilidade da IA ao construir uma camada de confiança. A estratégia central da Mira é utilizar o consenso de vários modelos de IA para verificar a saída da IA. Essencialmente, é uma rede de validação que verifica a fiabilidade da saída da IA através de um consenso descentralizado.
A chave da rede Mira está na validação de consenso descentralizada. Este método baseia-se em tecnologias do campo da criptografia, aproveitando ao mesmo tempo as vantagens da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modo de verificação coletiva.
No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de verificação independentes. Os operadores de nós participam na verificação dessas declarações, garantindo a honestidade dos operadores através de incentivos e mecanismos de penalização na economia criptográfica. Diferentes modelos de IA e operadores de nós descentralizados participam em conjunto para assegurar a fiabilidade dos resultados da verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em declarações verificáveis, que são então distribuídas para os nós para validação. Os nós determinam a validade das declarações e agregam os resultados para alcançar consenso, retornando finalmente os resultados ao cliente. Para proteger a privacidade do cliente, as declarações são distribuídas aleatoriamente em fragmentos para diferentes nós.
Os operadores de nós obtêm ganhos ao executar modelos de validadores, processar declarações e submeter resultados de validação. Esses ganhos vêm do valor criado para os clientes, principalmente refletido na redução da taxa de erro da IA em áreas críticas. Os clientes estão dispostos a pagar por isso, mas a sustentabilidade e a escala dos pagamentos dependem da capacidade da rede Mira de continuar a trazer valor aos clientes. Para evitar respostas aleatórias dos nós, o sistema penaliza nós que se afastam continuamente do consenso, garantindo a participação honesta.
No geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior confiabilidade para os serviços de IA dos clientes, reduzindo os preconceitos e alucinações da IA, e atendendo à demanda por maior precisão e exatidão. Isso não apenas cria valor para os clientes, mas também traz benefícios para os participantes da rede. O objetivo central da Mira é construir uma camada de confiança para a IA, promovendo o desenvolvimento profundo das aplicações de IA.
Atualmente, a Mira já firmou parcerias com várias estruturas de agentes de IA. Os usuários podem participar da rede de testes públicos através do Klok (um aplicativo de chat LLM baseado na Mira), experimentar saídas de IA validadas e ter a oportunidade de ganhar pontos Mira. Os futuros usos desses pontos ainda não foram divulgados, mas sem dúvida oferecem um incentivo adicional para a participação dos usuários.
Use language: 中文
生成评论:
AI也会Ser enganado por idiotas吗