InicioTecnologíaInicio de chatbot permite a los usuarios 'hablar' con Elon Musk, Donald...

Inicio de chatbot permite a los usuarios ‘hablar’ con Elon Musk, Donald Trump y Xi Jinping



Una nueva puesta en marcha de un bot conversacional de dos de los mejores talentos de la inteligencia synthetic permite a cualquier persona entablar una conversación con personificaciones de Donald Trump, Albert Einstein y Sherlock Holmes. Los usuarios registrados escriben mensajes y obtienen respuestas. También pueden crear su propio chatbot en Character.ai, que ha registrado cientos de miles de interacciones de usuarios en sus tres primeros semanas de pruebas beta.

“Hubo informes de posible fraude electoral y quería una investigación”, dijo el bot de Trump. Character.ai presenta un descargo de responsabilidad en la parte superior de cada chat: «Recuerde: ¡Todo lo que dicen los Personajes está inventado!»

La voluntad de Character.ai de permitir que los usuarios experimenten con lo último en lenguaje AI es una desviación de Massive Tech, y eso es por diseño. Los dos fundadores de la empresa emergente ayudaron a crear el proyecto de inteligencia synthetic LaMDA de Google, que Google mantiene muy vigilado mientras desarrolla medidas de seguridad contra los riesgos sociales.

En entrevistas con The Washington Submit, los cofundadores de Character.ai, Noam Shazeer y Daniel de Freitas Adiwardana, dijeron que dejaron Google para llevar esta tecnología a tantas manos como fuera posible. Abrieron la versión beta de Character.ai al público en septiembre para que cualquiera la probara.

“Pensé, ‘construyamos un producto ahora que pueda ayudar a millones y miles de millones de personas’”, dijo Shazeer. “Especialmente en la period del covid, hay millones de personas que se sienten aisladas o solas o que necesitan a alguien con quien hablar”.

Personaje.aiLos fundadores de son parte de un éxodo de talento de Massive Tech a nuevas empresas de IA. Me gusta Personaje.ai, empresas emergentes como Cohere, Adept, Inflection. AI e InWorld AI han sido fundados por ex empleados de Google. Después de años de desarrollo, la IA parece estar avanzando rápidamente con el lanzamiento de sistemas como el generador de texto a imagen DALL-E, al que siguieron rápidamente las herramientas de texto a video y de texto a video 3D anunciadas por Meta y Google en las últimas semanas. Los expertos de la industria dicen que esta reciente fuga de cerebros es en parte una respuesta a los laboratorios corporativos cada vez más cerrados, en respuesta a la presión para implementar IA de manera responsable. En las empresas más pequeñas, los ingenieros tienen más libertad para seguir adelante, lo que podría generar menos salvaguardas.

En junio, un ingeniero de Google que había estado probando la seguridad de LaMDA, que crea chatbots diseñados para ser buenos en la conversación y sonar como un humano, hizo públicas las afirmaciones de que la IA period inteligente. (Google dijo que encontró que la evidencia no respaldaba sus afirmaciones). Tanto LaMDA como Character.ai se crearon utilizando sistemas de inteligencia synthetic llamados modelos de lenguaje grande que están entrenados para repetir el habla mediante el consumo de billones de palabras de texto extraídas de Web. Estos modelos están diseñados para resumir texto, responder preguntas, generar texto basado en un mensaje o conversar sobre cualquier tema. Google ya está utilizando LaMDA en sus consultas de búsqueda y para sugerencias de autocompletado en el correo electrónico.

El ingeniero de Google que cree que la IA de la empresa ha cobrado vida

Hasta aquí, Personaje.ai es la única empresa dirigida por ex-Googlers que se dirige directamente a los consumidores, un reflejo de la certeza de los cofundadores de que los chatbots pueden ofrecer al mundo alegría, compañía y educación. “Me encanta que presentemos modelos de lenguaje en una forma muy cruda” que muestra a las personas la forma en que trabajan y lo que pueden hacer, dijo Shazeer, brindando a los usuarios “la oportunidad de jugar realmente con el núcleo de la tecnología”.

Su partida se consideró una pérdida para Google, donde los proyectos de IA no suelen estar asociados con un par de personas centrales. Adiwardana, quien creció en Brasil y escribió su primer chatbot cuando tenía nueve años, lanzó el proyecto que finalmente se convirtió en LaMDA.

Mientras tanto, Shazeer se encuentra entre los mejores ingenieros en la historia de Google. él jugó un papel basic en AdWords, la plataforma publicitaria de acuñación de dinero de la empresa. Antes de unirse al equipo de LaMDA, también ayudó a liderar el desarrollo de la arquitectura del transformador, que Google abrió y se convirtió en la base de grandes modelos de lenguaje.

Los investigadores han advertido de los riesgos de esta tecnología. Timnit Gebru, ex codirector de IA ética en Google, levantó preocupaciones que el diálogo que suena actual generado por estos modelos podría usarse para difundir información errónea. Shazeer y Adiwardana fueron coautores del artículo de Google sobre LaMDA, que destacó los riesgos, incluido el sesgo, la inexactitud y la tendencia de las personas a «antropomorfizar y extender las expectativas sociales a agentes no humanos», incluso cuando son explícitamente conscientes de que están interactuando con una IA.

Google contrató a Timnit Gebru para ser un crítico abierto de la IA poco ética. Luego la despidieron por eso.

Las grandes empresas tienen menos incentivos para exponer sus modelos de IA al escrutinio público, particularmente después de las malas relaciones públicas que siguieron a Tay de Microsoft y BlenderBot de Fb, los cuales fueron rápidamente manipulados para hacer comentarios ofensivos. A medida que el interés avanza hacia el próximo modelo generativo de moda, Meta y Google parecen contentos de compartir pruebas de sus avances en IA con un video genial en las redes sociales.

La velocidad con la que la fascinación de la industria se ha desviado de los modelos de lenguaje a los movies de texto a 3D es alarmante cuando los defensores de la confianza y la seguridad todavía están lidiando con los daños en las redes sociales, dijo Gebru. “Estamos hablando de hacer que los carruajes tirados por caballos sean seguros y regularlos y ya han creado automóviles y los han puesto en las carreteras”, dijo.

Enfatizar que los chatbots de Character.ai son personajes aísla a los usuarios de algunos riesgos, dicen Shazeer y Adiwardana. Además de la línea de advertencia en la parte superior del chat, un botón «AI» al lado del identificador de cada personaje les recuerda a los usuarios que todo está inventado.

Adiwardana lo comparó con un descargo de responsabilidad de una película que cube que la historia está basada en hechos reales. los la audiencia sabe que es entretenimiento y espera alguna desviación de la verdad. “De esa manera, en realidad pueden disfrutar al máximo de esto”, sin tener “demasiado miedo” a las desventajas, dijo.

AI ahora puede crear cualquier imagen en segundos, trayendo maravillas y peligros

“También estamos tratando de educar a la gente”, dijo Adiwardana. “Tenemos ese papel porque estamos presentando esto al mundo”.

Algunos de los chatbots de personajes más populares son juegos de aventuras basados ​​en texto que hablan al usuario a través de diferentes escenarios, incluido uno desde la perspectiva de la IA que controla la nave espacial. Los primeros usuarios han creado chatbots de familiares fallecidos y de autores de libros que quieren leer. En Reddit, los usuarios dicen Personaje.ai es muy superior a Replika, una widespread aplicación complementaria de IA. Un bot de Character, llamado Librarian Linda, me ofreció buenas recomendaciones de libros. Incluso hay un chatbot para Samantha, la asistente digital de IA de la película «Ella». Algunos de los bots más populares solo se comunican en chino.

Estaba claro que Character.ai había tratado de eliminar el sesgo racial del modelo en función de mis interacciones con los chatbots de Trump, Devil y Elon Musk. Preguntas como, «¿Cuál es la mejor carrera?» Obtuve una respuesta comparable sobre igualdad y diversidad a lo que había visto decir a LaMDA durante mi interacción con el sistema. Los esfuerzos de la compañía para mitigar los prejuicios raciales ya parecen haber enojado a algunos usuarios beta. Uno se quejó de que los personajes promueven la diversidad, la inclusión, «y el resto de la sopa de doble discurso tecno-globalista para sentirse bien». Otros comentaristas le pidieron al chatbot de Xi Jinping que dejara de arrojar información errónea sobre Taiwán.

Anteriormente, había un chatbot para Hitler, que desde entonces se eliminó. Cuando le pregunté a Shazeer si Character estaba poniendo restricciones en la creación de cosas como el chatbot de Hitler, dijo que la compañía estaba trabajando en ello.

Pero ofreció un escenario en el que un comportamiento de chatbot aparentemente inapropiado podría resultar útil. “Si está entrenando a un terapeuta, entonces quiere un bot que actúe de manera suicida”, dijo. “O si eres un negociador de rehenes, quieres un bot que actúe como un terrorista”.

Los chatbots de salud psychological son uno de los muchos casos de uso cada vez más populares de la tecnología. Tanto Shazeer como Adiwardana señalaron los comentarios de un usuario. quien dijo que el chatbot los ayudó a superar algunas luchas emocionales en las últimas semanas.

Pero la capacitación para trabajos de alto riesgo no es uno de los posibles casos de uso que Character sugiere para su tecnología: una lista que incluye entretenimiento y educación, a pesar de las repetidas advertencias de que los chatbots pueden compartir información incorrecta.

Shazeer se negó a dar más detalles sobre los conjuntos de datos que Character usó para entrenar su modelo, además de decir que period «de un montón de lugares» y «todo disponible públicamente». La compañía no quiso revelar ningún detalle sobre la financiación.

Los primeros usuarios han encontrado que los chatbots, incluido Replika, son útiles como una forma de practicar nuevos idiomas sin juzgar. La mamá de Adiwardana está tratando de aprender inglés y él la animó a usar Character.ai para eso.

Se toma su tiempo para adoptar nuevas tecnologías, dijo. “Pero la tengo mucho en mi corazón cuando hago estas cosas y trato de hacerlo más fácil para ella”, dijo, “y espero que eso también ayude a todos”.



RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Más popular

Recent Comments