@fermin@omoloc@Raquelita Cuando dice "adivinar", simplifica para hacer el artículo "accesible" a todo el público, pero sería generar la siguiente palabra según los pesos probabilísticos que los nodos de la red neuronal de tipo "transformer". Ese proceso se repite cada vez para ir generando palabras. Es hasta cierto punto recursivo, pues según la palabra que genere en el paso anterior, generará la próxima.
Primero, una red neuronal precisamente lo que busca es replicar el funcionamiento de las neuronas.
La diferencia de un transformer y una red clasica es que deja de funcionar de forma lineal, y pasa a funcionar de forma matricial. En la práctica esto hace que ya no busca una palabra, busca un conjunto de palabras (o un conjunto de píxeles) y eso lo cambia todo.
Una IA como chatGPT no tiene consciencia, pero tiene la inteligencia de una persona de unos doce años, pero mucha mas memoria.
Y sobre la consciencia Penrose especulaba con que surgía en las neuronas a nivel cuántico, y postulaba que por eso una maquina no podría alcanzarla nunca. Pero lo postuló antes de que apareciera la computación cuántica.
Lo mas jodido de todo es que si en algun momento las maquinas cobran consciencia, seriamos incapaces de saberlo. Pero a lo mejor ellas sí.
Primero, una red neuronal precisamente lo que busca es replicar el funcionamiento de las neuronas.
Bueno, eso es mucho decir, porque no se sabe muy bien cómo funcionan. En una red neuronal artificial, lo que se hace es cambiar los pesos de cada neurona (nodo) de la red cuando se realiza el entrenamiento, y luego, con los pesos fijados, es cuando se produce la "inferencia" haciendo pasar por la red nuevos datos.
La diferencia de un transformer y una red clasica es que deja de funcionar de forma lineal, y pasa a funcionar de forma matricial. En la práctica esto hace que ya no busca una palabra, busca un conjunto de palabras (o un conjunto de píxeles) y eso lo cambia todo.
Hasta donde yo sé, eso no es exacto, o al menos, no del todo. Todas las redes neuronales funcionan de forma matricial, i.e, se usan matrices para realizar los cálculos cuando se tienen que "pasar" datos a través de las capas de neuronas. Un "transformer" son varias redes neuronales acopladas que "ponen atención" sobre los datos. Aquí hay muchas explicaciones y ejemplos gráficos que ayudan a entenderlo mejor: www.youtube.com/watch?v=xi94v_jl26U
@fermin@omoloc@Raquelita Existen diferentes tipos de redes, enumeradas en el vídeo, y en todas se pueden usar tarjetas gráficas, porque en todas se usan operaciones matriciales. La naturaleza de una red neuronal es matricial siempre, porque a las diferentes capas de neuronas debe aplicárseles operaciones independientes (de las otras neuronas de la capa), cuando se procesa cada capa. Da igual que sea una red "normal", una convolucional, un LSTM, transformers, etc.
En la práctica esto hace que ya no busca una palabra, busca un conjunto de palabras (o un conjunto de píxeles) y eso lo cambia todo.
En una red neuronal (sea la que sea), no se "busca" nada, se ingresan unos valores (entrada), se realiza inferencia pasando esos datos por las diferentes capas (operaciones matemáticas), y se obtiene un resultado (salida). En el caso de los píxeles, lo que se realiza son diferentes convoluciones sobre los píxeles y se "generan" de salida diferentes resultados según dichas entradas. En este vídeo se explica también muy bien cómo funcionan las redes neuronales que funcionan con imágenes, donde las convoluciones son básicas:www.youtube.com/watch?v=V8j1oENVz00
@omoloc@fermin@Raquelita Gran debate sobre deep learning!!! Mucha gente confunde el maravilloso poder de la computación + matemáticas + estadística con inteligencia y conciencia real y por mucho "charm" que tenga el tema pues no estamos ni cerca, según he leído creo que ni siquiera se entiende completamente todavía el funcionamiento del cerebro humano.
Pero es sorprendente todo lo que se está consiguiendo gracias a esto, prometedor es en el campo de la medicina : vacunas, nuevas medicinas diagnósticos automáticos.