Proyectos como DALL-E de OpenAI y Gato y LaMDA de DeepMind han suscitado muchas discusiones sobre la inteligencia synthetic basic (AGI). Estas discusiones tienden a no llegar a ninguna parte, en gran parte porque no sabemos realmente qué es la inteligencia. Tenemos algunas concepts: he sugerido que la inteligencia y la conciencia están profundamente conectadas con la capacidad de desobedecer, y otros han sugerido que la inteligencia no puede existir fuera de la encarnación (algún tipo de conexión entre la inteligencia y el mundo físico). Pero realmente no tenemos una definición. Tenemos muchas definiciones parciales, todas las cuales están vinculadas a contextos específicos.
Por ejemplo, solemos decir que los perros son inteligentes. Pero, ¿qué queremos decir con eso? Algunos perros, como los perros pastores, son muy buenos para realizar ciertas tareas. La mayoría de los perros pueden ser entrenados para sentarse, buscar y hacer otras cosas. Y pueden desobedecer. Lo mismo ocurre con los niños, aunque nunca compararíamos la inteligencia de un niño con la de un perro. Y los gatos no harán ninguna de esas cosas, aunque nunca nos referimos a los gatos como poco inteligentes.
estoy muy impresionado con El trabajo de Irene Pepperberg sobre la inteligencia de los loros. Ella ha demostrado que sus loros pueden comprender los números, pueden usar el lenguaje de manera inteligente e incluso pueden inventar nuevo vocabulario. (“Banerry” por manzana, probablemente porque los pájaros no tienen labios y no pueden decir Ps muy bien. Y las manzanas parecen cerezas gigantes y saben a plátanos, al menos para los loros). pregunta mal (Creo que el Dr. Pepperberg estaría de acuerdo.) Les pedimos a los pájaros que sean inteligentes sobre las cosas sobre las que los humanos son inteligentes. Nunca le pedimos a los humanos que sean inteligentes sobre las cosas sobre las que las aves son inteligentes: navegar en el espacio tridimensional, almacenar alimentos para usar durante el invierno (un carbonero boreal almacenar hasta 80.000 semillas en diferentes lugares, y recuerda dónde están todos), haciendo uso de los muchos colores que los pájaros ven que nosotros no podemos (su visión se extiende hasta el ultravioleta). Es fácil imaginar a un pájaro pensando: “Esos pobres humanos. No pueden encontrar su hogar sin sacar esa pequeña y extraña caja negra (que en realidad es octarina de colour)”.
De manera comparable, a menudo decimos que los delfines y los elefantes son inteligentes, pero nunca queda claro a qué nos referimos exactamente con eso. Hemos demostrado que los delfines pueden reconocer patrones y que se reconocen a sí mismos en los espejos, y han demostrado una capacidad (limitada) para comunicarse con los humanos, pero su inteligencia sin duda va mucho más allá. No me sorprendería en lo más mínimo que animales como los delfines tuvieran una literatura oral. Los penalizamos en la escala de inteligencia porque no tienen manos y no pueden levantar un bolígrafo. Asimismo, algunas investigaciones muestran que los elefantes se comunican entre sí usando ruidos de baja frecuencia que se pueden escuchar a millas (si eres un elefante). La teoría de la información sugiere que esta comunicación no puede ser rápida, pero eso no significa que no pueda ser rica.
Los humanos son inteligentes. Después de todo, podemos definir qué significa «inteligencia». Controlar la definición de inteligencia siempre ha sido una fuente de poder cultural y político; simplemente lea cualquier cosa escrita en Estados Unidos en el siglo XIX sobre la inteligencia de las mujeres, asiáticas, africanas o incluso irlandesas e italianas. Tenemos «pruebas de inteligencia» para medir la inteligencia, ¿o solo miden la capacidad para tomar pruebas? También hablamos de inteligencia “emocional” y de otro tipo. Y reconocemos que la habilidad matemática, lingüística y artística rara vez van de la mano. Nuestra propia visión de nuestra propia inteligencia está muy fracturada y, a menudo, tiene más que ver con la pseudociencia que con cualquier cosa que podamos usar como métrica en los experimentos de aprendizaje automático. (Aunque GPT-3 y LaMDA sin duda son muy buenos para realizar pruebas).
Finalmente, también se ha hablado mucho últimamente sobre la posibilidad de descubrir vida en otros planetas. La vida es una cosa, y mi opinión decididamente beginner es que encontraremos la vida bastante común. Sin embargo, para descubrir vida inteligente, necesitaríamos una definición funcional de inteligencia. La única definición útil que puedo imaginar es «capaz de generar señales que pueden recibirse fuera del planeta y que son indiscutiblemente no naturales». Pero según esa definición, los humanos solo han sido inteligentes durante aproximadamente 100 años, desde los primeros días de la radio. (No estoy convencido de que los primeros experimentos eléctricos del siglo XIX y la radio basada en chispas de las dos primeras décadas del siglo XX pudieran detectarse fuera del planeta). criaturas inteligentes que viven bajo el hielo que cubre la luna Titán de Saturno, pero nunca podremos detectarlos sin ir allí. Para Titán, una visita puede ser posible. Para planetas en otras partes de nuestra galaxia, probablemente no.
Aún más importante: estas definiciones no son solo diferentes. Son de diferente especie. No decimos que un loro o un cuervo sea inteligente si obtiene una puntuación de 0,3 (en una escala de 0 a 1) en alguna prueba, pero un vehículo autónomo tiene que obtener una puntuación de 0,99. Las definiciones no son remotamente comparables. No sé qué significaría preguntarle a GPT-3 sobre volar en las corrientes de aire. Si preguntáramos, obtendríamos una respuesta, y muy probablemente una buena con mucha información sobre aerodinámica, pero ¿tendría eso algo que ver con la comprensión del vuelo de un águila? Podría decirle a Gato que se «siente», pero ¿cómo sabría si obedeció?
Entonces, ¿qué nos cube esto sobre la inteligencia synthetic? El contexto es importante; una definición apropiada de “inteligencia” tiene que comenzar con lo que queremos que haga el sistema. En algunos casos, eso genera artículos publicables y buenas relaciones públicas. Con sistemas de lenguaje pure como GPT-3, tendemos a ignorar el hecho de que a menudo hay que probar varias indicaciones para producir un resultado razonable. (¿Consideraríamos inteligente a un humano si tuviera que intentarlo 5 veces para responder una pregunta?) Como se ha señalado a menudo, los sistemas como GPT-3 a menudo se equivocan en los datos básicos. Pero los humanos a menudo responden a las indicaciones de manera incoherente, y con frecuencia nos equivocamos en los hechos. Hacemos las cosas mal de diferentes maneras y por diferentes razones; investigar esas diferencias podría revelar algo sobre cómo funciona nuestra inteligencia y podría llevarnos a una mejor comprensión de lo que podría significar una «inteligencia synthetic».
Pero sin esa investigación, nuestro estándar de inteligencia es bastante versatile. Un sistema de inteligencia synthetic para hacer recomendaciones de productos puede tener éxito incluso si la mayoría de las recomendaciones son incorrectas, solo mire a Amazon. (No estoy siendo irónico. Si hay 10 recomendaciones y está interesado en una de ellas, Amazon ha ganado). Un sistema de inteligencia synthetic para un vehículo autónomo tiene que funcionar con un estándar mucho más alto. También lo hacen muchos sistemas en los que la seguridad no es un problema. Podríamos hablar felizmente sobre la «inteligencia» de un motor de ajedrez de IA que puede vencer al jugador humano promedio, pero un producto de ajedrez que solo puede vencer al humano promedio y no puede jugar a nivel de campeonato mundial sería una vergüenza.
Lo que quiere decir que la inteligencia, especialmente la synthetic, es muchas cosas. Si tu lees El artículo de Turing sobre el juego de la imitación, verá rápidamente que Turing está más interesado en la calidad de la interacción que en la corrección del resultado. En sus ejemplos, la máquina cube que no es buena escribiendo poesía; duda antes de dar respuestas; e incluso obtiene algunos resultados incorrectos. El experimento psychological de Turing se trata más de si una máquina puede comportarse como un humano que de si puede dominar muchas disciplinas diferentes. La palabra “inteligencia” solo aparece una vez en el cuerpo del artículo, y luego se refiere a un experimentador humano.
Eso me lleva a una conclusión: la inteligencia no tiene una definición única, y no debería hacerlo. La inteligencia siempre es específica de la aplicación. No es lo mismo inteligencia para un motor de búsqueda que inteligencia para un vehículo autónomo, no es lo mismo inteligencia para un pájaro robótico, no es lo mismo que inteligencia para un modelo de lenguaje. Y ciertamente no es lo mismo que la inteligencia para los humanos o para nuestros colegas desconocidos en otros planetas.
Si eso es cierto, ¿por qué estamos hablando de «inteligencia basic»? La inteligencia basic asume una sola definición. Descartar la concept de una única definición unificadora de “inteligencia” no nos cuesta mucho, y gana mucho: somos libres de crear definiciones de “inteligencia” que sean apropiadas para proyectos específicos. Al embarcarse en un nuevo proyecto, siempre es útil saber exactamente lo que está tratando de lograr. Esto es excelente para la ingeniería práctica del mundo actual. E incluso los proyectos de investigación grandes y costosos como DALL-E, Gato, LaMDA y GPT-3 son, en última instancia, proyectos de ingeniería. Si mira más allá de las afirmaciones de cebo de enlace sobre inteligencia basic, sensibilidad y similares, los científicos informáticos que trabajan en estos proyectos están trabajando contra puntos de referencia bien definidos. Si estos puntos de referencia tienen algo que ver con la «inteligencia» no es relevante. No están tratando de crear un ser humano synthetic, ni siquiera un perro synthetic. (Dejaremos perros artificiales para dinámica de boston.) Están intentando, con un éxito appreciable, ampliar el alcance de lo que pueden hacer las computadoras. Un modelo que puede funcionar con éxito en más de 600 contextos diferentes es un logro importante. Si eso es o no «inteligencia basic» (o inteligencia en absoluto) es un espectáculo secundario que no necesitamos.