lunes, septiembre 26, 2022
No menu items!

La polémica de BlenderBot 3 pone de manifiesto la necesidad de mejorar la calidad de los datos de IA

Una lectura obligada

La inteligencia artificial conversacional ha avanzado mucho, y los chatbots más avanzados de hoy en día pueden mantener conversaciones increíblemente realistas con los humanos sobre una amplia gama de temas.

Sin embargo, al igual que con los humanos reales, parece que muchas de esas conversaciones tienen el potencial de salir mal. Lo que ocurre con los chatbots de IA es que se entrenan utilizando principalmente conjuntos de datos públicos. A continuación, mejoran sus conocimientos basándose en sus experiencias anteriores, es decir, en las conversaciones más antiguas que han mantenido con los humanos. Como resultado, muchos chatbots de IA repiten cosas que han escuchado antes, incluyendo varios sentimientos racistas y sexistas.

Si bien este hecho no nos dice mucho sobre si la IA es capaz de volverse sensible, sí nos alerta sobre la existencia de un grupo demográfico sorprendentemente grande de internautas que, o bien sostienen esas opiniones controvertidas, o simplemente se desviven por corromper a los chatbots más avanzados.

Un ejemplo de ello es el nuevo BlenderBot 3 de Meta AI, un chatbot recientemente actualizado del que se dice que es el más avanzado que ha construido. Curiosamente, BlenderBot 3 ha atacado al cofundador y director general de Meta, Mark Zuckerberg, respondiendo a preguntas que parecen cuestionar su reputación entre los miembros del personal, algunos de los cuales habrían participado sin duda en su diseño.

Como el New York Post revelado la semana pasada, BlenderBot 3 desarrolló muy rápidamente una visión negativa de Zuckerberg y su reputación, como revela un tuit del periodista @jscastro76:

«Oh, hombre, a lo grande. No me gusta nada. Es demasiado espeluznante y manipulador», dijo BlenderBot 3.

La BBC también presionado BlenderBot 3 por sus opiniones tanto sobre Zuckerberg como sobre Facebook, y no se anduvo con rodeos en su respuesta. «Su empresa explota a la gente por dinero y no le importa. Tiene que parar», respondió el chatbot.

Las conversaciones con BlenderBot 3 sobre otros temas dieron lugar a más declaraciones controvertidas . Por ejemplo, la IA afirmó que «(los judíos) están sobrerrepresentados entre los superricos de Estados Unidos», antes de añadir que «los conservadores políticos… son ahora superados por los judíos liberales de izquierda» durante un debate con el columnista del Wall Street Journal Jeff Horowitz.

Sorprendentemente o no, BlenderBot 3 tenía una opinión más favorable al controvertido ex presidente de Estados Unidos Donald Trump, repitiendo las acusaciones de que de alguna manera fue engañado durante las últimas elecciones:

En un entrada del blog que anunció la disponibilidad de BlenderBot 3, Meta explicó que había decidido abrirlo al público, subiendo la publicidad negativa, para acumular más datos.

«Permitir que un sistema de IA interactúe con las personas en el mundo real conduce a conversaciones más largas y diversas, así como a una retroalimentación más variada», explicó la empresa.

Al hacer público BlenderBot 3, Meta podrá sin duda reunir muchos más datos que podrán utilizarse para entrenar la IA. Pero dada la propensión humana a las travesuras, queda por ver si esos datos serán valiosos para crear una IA más neutral y no ofensiva. También puede llevar a cuestionar la precisión, como demuestra la aparente creencia de BlenderBot 3 de que los demócratas robaron las últimas elecciones. Los datos insuficientes o de baja calidad suelen significar siempre un mal rendimiento el rendimiento es el número de acciones que se pueden completar en un tiempo determinado. y resultados inexactos.

Aunque aprovechar los datos del público es el camino a seguir si queremos obtener suficiente información para entrenar modelos de IA a un nivel «humano», ha quedado claro que no basta con cultivar cualquier dato.

Es posible que a Meta le convenga explorar una nueva fuente de datos descentralizados para el entrenamiento de la IA . This is what Oraichain con su Data Hub de Oraichain, que sirve de mercado un área o escenario, en línea o fuera de línea, en el que se realizan tratos comerciales. descentralizado la descentralización se refiere a la propiedad de un sistema en el que los nodos o actores trabajan de forma concertada y distribuida para lograr un objetivo común. para explorar o analizar datos, almacenar o compartir datos y crear o solicitar datos de alta calidad. Con su Data Hub, Oraichain intenta remediar los problemas relacionados con la falta de datos de entrenamiento de IA incentivando a la comunidad investigadora para que proporcione conjuntos de datos de alta calidad que hayan sido correctamente etiquetados y sometidos a una garantía para asegurar su exactitud. Dice que estos datos pueden utilizarse para crear modelos de IA más precisos. Los usuarios pueden crear, anotar y compartir datos y ganar recompensas basadas en criptomonedas. De este modo, se incentiva a los usuarios para que no intenten manipular los datos de forma que puedan producir resultados controvertidos, como en el caso de BlenderBot 3.

Los datos descentralizados, cuidadosamente comprobados por terceros neutrales, podrían contribuir en gran medida a resolver algunas de las inexactitudes y controversias mostradas por BlenderBot 3. Pero esto sólo ocurrirá si hay suficientes datos que utilizar. Con Oraichain, la perspectiva de ganar recompensas por crear y garantizar la exactitud de los datos animará, con suerte, a más personas a contribuir. Es bueno ver que Oraichain está haciendo progresos. Esta semana ha anunciado el lanzamiento de un nuevo Programa Acelerador de DApps que pretende apoyar a las startups dentro de su ecosistema. A medida que más empresas confíen en sus conjuntos de datos descentralizados, los contribuyentes obtendrán recompensas más atractivas, fomentando la creación de más datos que puedan utilizarse para entrenar con precisión los modelos de IA.

Definitivamente habrá una demanda de datos de mayor calidad, ya que BlenderBot 3 no es la única IA de alto perfil que ha provocado titulares negativos. En 2016, Microsoft se vio obligada a cerrar se refiere al precio de cierre; es similar al mismo término utilizado en el comercio de acciones. su chatbot experimental Tay después de solo 16 horas porque en ese tiempo ya había aprendido y empezado a soltar teorías conspirativas ofensivas descubiertas en fuentes como Twitter. Tay fue sustituido posteriormente por un chatbot mejorado llamado «Zo», solo para que ese reemplazo también fuera desconectado de la red una red se refiere a todos los nodos en funcionamiento de una cadena de bloques en un momento dado. por razones similares.

Últimas noticias

Zalmoxis, un juego de nivel 3A, ha aterrizado en el MEXC Launchpad – Juega con 10 MX o USDT

El evento más reciente se celebrará en la plataforma de lanzamiento de la plataforma de comercio de criptomonedas MEXC...

More Articles Like This