Esa es la palabra que yo utilicé: Imaginar. Y a mi primo le voló la cabeza, porque es cierto que "imaginar" es una acción que hasta ahora sólo asociábamos al hombre hasta el punto de identificarla como única del hombre, pero lo que está haciendo la IA es literalmente imaginar como sería lo que se le indica.
@omoloc Imaginación sintética, o sea, calcular. Aunque también usamos "calcular" para procesos mentales: "estoy calculando una jugada que se va a cagar la perra". @macarty
@macarty@omoloc@function@squanchy@fermin Pienso que omoloc se está refiriendo más concretamente a la creatividad como iniciativa propia, no a la creatividad en general.
@inconformistadesdeel67@omoloc@function@squanchy@fermin No se me termina de ocurrir, como un sistema finito (al final hablamos de máquinas de Turing) es capaz de crear ese tipo de iniciativa. Es decir: ¿como sabe la máquina que un modelo no es cerrado (o que tiene fallos experimentales) y ha de seguir investigando, o cómo podemos meterle en su sistema la "curiosidad" para investigar?
@omoloc@inconformistadesdeel67@function@squanchy@fermin hay multiples tipos de IA, desde los de inteligencia Narrow ( asistentes virtuales, sistemas autonomos de guiado, sistemas expertos que buscan patrones entre cantidades enormes de datos, AGI (las que pueden pensar y aprender), y ASI que tienen autoconsciencia.
@omoloc@macarty@function@squanchy@fermin Mmm, pienso que hay un aspecto en el que sí, y otros en los que no. Supongo que una IA razona aplicando sólo y exclusivamente la lógica a partir de los datos de que disponga, aunque pueda añadir algo de aleatoriedad en sus decisiones. Sin embargo, el ser humano razona también partiendo de emociones, por ejemplo.
@omoloc@inconformistadesdeel67@function@squanchy@fermin eso es difícil de saber, supongo que el test de Turing es lo primero. Luego, lo siguiente, serían las dudas existenciales de la máquina, la curiosidad, si me apuras, por sus propias circunstancias.
Incorrecto. Una IA no tiene lógica. Son millones de "neuronas" con un valor asignado, dentro de una red. Si yo te digo que sumes 14+23, tú seguirás un algoritmo que te enseñaro de pequeño y producirás el resultado. La IA no funciona así. Ella a base de entrenamiento reconocerá que los números que acaban en 4, si los sumas con los que acaban en 3, dan como resultado uno que acaba en 7. Pero no es un algoritmo que se ejecute por pasos definidos, como hace un humano.
@inconformistadesdeel67@omoloc@macarty@function@fermin
Qué va, no usan la lógica proposicional. De hecho hay IAs que simplemente tienen un heurístico (una función que te dice si un estado es ventajoso o pernicioso) y se limita a ir probando combinaciones y quedarse con la mejor. Así funcionaban los primeros juegos de ajedrez electrónicos. Por fuerza bruta obtenían la mejor jugada contra ti.
Si te interesa, busca información sobre el algortimo minimax. Es fácil de entender.
No me suelo meter en esos charcos, pero tu comentario ha hecho que se me viniera a la cabeza ese término peyorativo que se les arroja a los defensores de la postura de Putin :
GPT-3 es una IA brutal. Contesta dependiendo de lo que le digas. Es decir, tú la sugestionas para que tome un rol, y luego te sigue la corriente con ello. La he probado y de verdad que hay momentos en que te parece estar chateando con un humano.
Los humanos también funcionamos bajo "sugerencia" hasta cierto punto. Nos "sugieren" los padres cuando nos educan, amigos, profesores, todo nuestro entorno.
El problema de las redes neuronales actuales es que solo dan una salida cuando les das una entrada. No funcionan de forma "iterativa", no están todo el rato "funcionando". La tecnología actual debería diseñar una red que una vez entrenada se realimentara todo el rato con ella misma y con más estímulos exteriores para seguir entrenándose. Eso creo que sí llegaría a crear una especie de cerebro pensante. Hay mucha investigación, ya veremos a dónde llegamos.
Nota: se usa random en las redes como GPT-3, porque ante una misma entrada, cada vez da salidas diferentes. Por eso es creativa o imaginativa. Como Stable Diffusion o Dall-e.
GPT-3 es una IA brutal. Contesta dependiendo de lo que le digas. Es decir, tú la sugestionas para que tome un rol, y luego te sigue la corriente con ello. La he probado y de verdad que hay momentos en que te parece estar chateando con un humano.
Ojo que aquí no digo "que tenga conciencia". Estamos lejos de ello. Es cierto que a alguien le pueda parecer muy real, pero de ahí a creer que tiene conciencia hay un trecho (como al científico aquel que dijo que sí, que había tomado conciencia... en fin).
@inconformistadesdeel67@function@omoloc si hay gente que sigue pensando que la tierra es plana, o que con las vacunas del COVID-19 te inyectan nanorouters 5G, estoy seguro de que se puede montar una IA conspiranoica
Esa es la palabra que yo utilicé: Imaginar. Y a mi primo le voló la cabeza, porque es cierto que "imaginar" es una acción que hasta ahora sólo asociábamos al hombre hasta el punto de identificarla como única del hombre, pero lo que está haciendo la IA es literalmente imaginar como sería lo que se le indica.