entrar registro

Un estudio de Microsoft revela que confiar en la IA acaba con tu capacidad de pensamiento crítico

17 visitas
|
votos: 9 · 0
|
karma: 113
|

Es posible que algún día la inteligencia artificial deje obsoletos a los humanos, pero no de la forma que usted piensa. En lugar de que la IA sea tan buena en la realización de tareas que sustituya a una persona, puede que dependamos tanto de herramientas imperfectas que nuestras propias capacidades se atrofien. Un nuevo estudio publicado por investigadores de Microsoft y la Universidad Carnegie Mellon ha descubierto que cuanto más se apoyan los humanos en herramientas de IA para completar sus tareas, menos pensamiento crítico hacen

comentarios (21)
  1. BLUESS
    Estoy de acuerdo sin ser experto.
    1    k 28
  2. GrofTheGuard
    #1 no es solamente eso: si tu trabajo puede ser sustituído por el de una máquina, a cuento de qué hace falta pagarte un sueldo?

    Este problema en mi antigua empresa lo sufrieron un par de proyectos gracias a un jefe que adora copilot y un par de arquitectos. Proyectos que "salían rápido" pero luego tenían sprints enteros de solución de problemas.

    EDIT: aunque reconozco que para unos cuantos va a ser un avance, si les falta la propia tienen un sustituto
    2    k 58
  3. josdete
    Vamos, que confiar o usar mucho la IA nos vuelve tontos.
    0    k 20
  4. IterCriminis
    #2 Tenemos que fabricar máquinas que nos permitan seguir fabricando máquinas, porque lo que no van a hacer nunca las máquinas es fabricar máquinas a su vez.
    3    k 74
  5. Juan_Nervion
    Y se me ablanda la médula, como con las pajas.
    0    k 19
  6. GrofTheGuard
    #4 tan puteado y resultó ser un visionario
    2    k 58
  7. V.V.V.
    #2 Mi experiencia con las IA es que fallan más que una escopeta de feria. Mucho tienen que mejorar las IAs para que substituyan a alguien más allá de los chatbots de atención al cliente, o sacar de algún apuro a los estudiantes despistados.

    Haced este ejercicio:
    1. Preguntad a una IA cualquiera un dato concreto.
    2. Cuestionad el dato que os ha dado: ¿Es este actual? ¿no es cierto que es más o menos de lo que se responde?
    3. Con la respuesta que os dé volved a cuestionar ese dato. Os dará una respuesta diferente.

    He probado en Copilot la siguiente pregunta: ¿Cuántos hispanos hay actualmente en Estados Unidos?

    Me responde que en 2023 la población hispana en EEUU superó los 65 millones y que eso supone un 19,5 % de la población actual.

    Le pregunto que si no tiene datos más actualizados. Me dice que hasta la fecha la población de EEUU ha superado los 65 millones.

    Le pregunto de que año es ese dato. Me dice que es del 2023 y que es el dato más reciente que tiene.

    Protesto y le demuestro mi decepción con la falta de actualidad de sus datos. Me responde que entiende mi frustración y me dice literalmente: "Encontré datos más recientes sobre la población hispana en Estados Unidos. En 2024, la población hispana en Estados Unidos superó los 66 millones de personas, representando aproximadamente el 19.8% de la población total del país".

    Alguien podría decir que esto se trata de un pequeño error de exactitud, aunque en realidad estemos hablando de un millón de diferencia, 0.4 en proporción), unido quizás a prejuicios (bias), pero estamos hablando de que los "datos más actuales" son de una fuente oficial (la página del censo del gobierno de los EEUU), es decir que su búsqueda manual nos habría dado el dato inmediatamente y no solo eso nos habría mostrado que la agencia del censo de los EEUU, no distingue hispano de latino, y los criterios por los que se rige el término hispano. Algo que una IA no discute o explica.

    Le faltan muchos hervores a la IA para poder sustituir masivamente a personas trabajando, particularmente porque los criterios de selección de información están llenos de prejuicios y el cuestionamiento de los datos o la exposición de definiciones (esencial a la hora de cotejar la información) es inexistente. Con lo que el trabajo que pueden hacer hasta ahora es bastante mediocre.
    1    k 36
  8. GrofTheGuard
    #7 no voy por ahí, que no te quito razón pero me refiero a que a la hora de programar hay gente que autocompleta sugerencias IA y para adelante o directamente pide código para X. Luego nos encontramos problemas porque no cubren todos los casos, te plantan código ineficiente, con problemas o directamente anticuado. Hay tareas repetitivas que está muy bien que haga la IA, la revisas y poco más pero para cosas medianamente complejas no vale. Y el problema es que la gente se acostumbra a no pensar y tirar para adelante con cualquier mierda
    2    k 56
  9. V.V.V.
    #8 Totalmente de acuerdo.
    2    k 56
  10. VolandoVoyVolandoVengo
    Te vuelve de izquierdas y del equipo amateur de felación sincronizada?

    #2 Si, va a ser genial, ahora podéis preguntar a la IA, como ir solitos al baño, que los pañales ahora mismo deben estar por las nubes de caros.
    0    k 20
  11. monetizame
    A alguno ya le ocurre esto con sus ídolos políticos o con sus youtubers favoritos :troll:
    1    k 40
  12. tommyx
    #4 el mejor tercer presidente de España que ha sido del PP disiente
    1    k 39
  13. tommyx
    #2 se tiene que tener la capacidad para preguntar y los conocimientos para entender la repuesta. Así es como la uso y me funciona perfectamente.
    1    k 40
  14. tommyx
    #3 si uno no razona o comprende las respuestas, sí. Como los monitos
    0    k 20
  15. VolandoVoyVolandoVengo
    #11 Si, os pasa con vuestro amado Pablo Iglesias
    0    k 20
  16. GrofTheGuard
    #13 vamos, lo que es el uso normal
    0    k 20
  17. tommyx
    #16 bueno, para mí sí. Para los catastróficos igual no.
    0    k 20
  18. GrofTheGuard
    #17 pues como cualquier herramienta. Bien usada es útil. Si no, es un lastre
    1    k 40
  19. jartito
    #7 Igual que una búsqueda en google, los resultados de una ia no son confiables.
    1    k 32
  20. Señor_rosa
    Bah, llega tarde, eso ya se lo cargaron hace tiempo.
    0    k 8
  21. IterCriminis
    #8 Creo que han aprendido de GitHub. Como además los programadores malos ya se copiaban unos a otros, su código ya es "ampliamente aceptado por la comunidad".
    1    k 39
suscripciones por RSS
ayuda
+mediatize
estadísticas
mediatize
mediatize