Bienvenid@s al Foro AEAC › Foros › Foro AEAC › Inteligencia artificial generativa
- Este debate tiene 2 respuestas, 1 mensaje y ha sido actualizado por última vez el hace 1 semana, 4 días por
Secretario_General.
-
AutorEntradas
-
-
14 de marzo de 2025 a las 13:06 #362

Secretario_GeneralSuperadministradorUna cartografía muy completa de la Inteligencia artificial generativa
https://cartography-of-generative-ai.net/
Traducción al español:
Cartografía de la IA generativa
La popularización de la inteligencia artificial (IA) ha dado lugar a imaginarios que invitan a la alienación y la mistificación. En un momento en que estas tecnologías parecen consolidarse, es pertinente mapear sus conexiones con las actividades humanas y más allá de los territorios humanos. ¿Qué conjunto de extracciones, agencias y recursos nos permiten conversar en línea con una herramienta generadora de texto u obtener imágenes en cuestión de segundos?01. Las herramientas de IA generativa se utilizan para automatizar tareas como escribir o generar imágenes. Esta automatización no se logra programando los pasos concretos a dar, sino mediante el uso de ejemplos. Si tenemos muchos ejemplos de un caso, podemos procesarlos utilizando redes estadísticas que se configuran a sí mismas analizando sus patrones recurrentes. Ya sean palabras, píxeles o frecuencias de sonido, podemos obtener un modelo estadístico analizando y explorando un conjunto de datos de entrenamiento. Podríamos decir que las herramientas de IA generativa desensamblan el lenguaje (visual, textual) para reensamblarlo en base al cálculo de probabilidades. Si hasta hace unos años estas herramientas estaban entrenadas para producir expresiones concretas (la imagen de un rostro, el texto en un estilo determinado), ahora van más allá de la concreción específica para producir muchos tipos y estilos de contenido. Esta capacidad de generalización se basa en el procesamiento de conjuntos de datos mucho más grandes y heterogéneos para responder a todo tipo de indicaciones. Como resultado, la escala del cambio en la IA generativa ha sido tan grande que ha sido necesario impulsar nuevas economías y acelerar la dependencia de los ecosistemas.
02. Conjuntos de datos. La compilación industrial de conjuntos de datos de entrenamiento se logra extrayendo contenido del archivo digital más grande que existe: Internet. Los datos se obtienen a través del “scraping” automatizado de los contenidos en línea publicados y compartidos por millones de usuarios de Internet. La motivación original de esta extracción no preveía la explotación comercial actual por parte de las empresas emergentes y las plataformas, sino que estaba impulsada por el deseo de investigación académica y no comercial. Ahora que estos enormes archivos digitales se han utilizado para generar textos e imágenes bajo demanda, nos enfrentamos a una serie de paradojas y controversias dentro de las industrias culturales. Si, por un lado, la ideología del big data entiende los contenidos de Internet como un vasto repositorio que puede ser extraído, procesado y automatizado, por otro lado, este impulso extractivista es visto por otros actores culturales como un proceso de privatización masiva de la creatividad de millones de usuarios de Internet.
03. Modelos estadísticos de imitación. Las industrias culturales han producido muchas de las imágenes, textos y sonidos que alimentan los modelos de IA, y son a su vez sus principales y potenciales usuarios. El trabajo de fotógrafos, diseñadores, ilustradores, músicos, compositores, guionistas, escritores, desarrolladores, animadores y cineastas está siendo procesado para entrenar estos modelos de mimetismo estadístico. Aunque la estética de los contenidos generados actualmente no es muy diferente a la de los bancos de imágenes, fotos o sonidos, es poco probable que la velocidad a la que operan estos servicios automatizados sea igualada por ningún competidor humano. Por esta razón, los trabajos más sociables y precarios en la producción cultural serán tanto los más desfavorecidos como los más dependientes de la IA generativa.
04. Puesta a punto. Si bien los conjuntos de datos son materias primas, no son suficientes para perfeccionar el nivel actual de interacción personalizada que ofrecen los servicios de IA en línea. Para que sea más fácil de usar, necesita grupos de microtrabajadores dedicados a refinar el modelo: puntuar las respuestas que genera, etiquetar imágenes o texto, anotar y otros procesos de evaluación que implican trabajo cognitivo (a menudo consistente en hacer clic en una de las opciones que se muestran en la pantalla). Las grandes corporaciones tercerizan estos servicios de empleo a terceras empresas, que a su vez los exportan a países del sur global con altos índices de pobreza, donde el costo/hora de cada trabajador se convierte en un costo residual. Se ha documentado que algunas de las empresas subcontratadas operan en campos de refugiados, capacitando a personas desplazadas en Líbano, Uganda, Kenia e India para realizar microtareas con datos, explotando las dificultades económicas de las personas desplazadas (Jones, 2022).
05. Filtrado. En una etapa posterior, es necesario filtrar el contenido generado por los grandes modelos de IA. Las tareas más comunes en esta etapa son las destinadas a moderar los llamados contenidos tóxicos: odio, controversia política, sexo extremo o explícito y violencia, originalmente contenidos en los conjuntos de datos de entrenamiento. El trabajo de moderación se lleva a cabo en los mercados laborales de países como Kenia o Uganda (o incluso en las grandes metrópolis del Norte, entre comunidades migrantes) y se dedica a identificar y clasificar textos e imágenes con contenido violento, asesino, de violación o abuso infantil. Detrás de la aparición autónoma de las herramientas de IA, por tanto, encontramos diferentes niveles de recursos humanos desplazados a diferentes geografías, precarizados e invisibilizados por la industria de la innovación tecnológica.
06. Start-ups de IA. Este despliegue de recursos humanos deslocalizados depende, en última instancia, de las start-ups de IA generativa (OpenAI, DeepMind, Anthropic y otras), de las empresas alentadas por el valor fetichista de los modelos de IA y de las renovadas olas de especulación tecnológica de Silicon Valley. Las empresas emergentes de IA generativa se han establecido en torno a la experiencia y la investigación especializada, pero también como actores globales, articulando estos micromercados laborales, aliándose con las grandes plataformas informáticas y atrayendo capital financiero. Son los protagonistas del actual hype en el mercado global de la innovación digital, compensando la ralentización de los beneficios del capital riesgo tecnológico, y con el conveniente estímulo de un discurso que centra el debate sobre la IA en los peligros que supone para la extinción de la humanidad.
07. Discursos públicos. El discurso del pánico a la IA, canalizado por institutos y fundaciones filantrópicas y apoyado por los líderes “visionarios” de las start-ups, es cubierto por los medios de comunicación y tiene el deseado efecto alarmante en la opinión pública. En un momento en el que estas tecnologías están siendo sometidas a los primeros procesos regulatorios (la primera ley de IA se aprobó en el Parlamento Europeo a principios de 2024), la agitación de mensajes de amenaza existencial pretende apoyar las demandas de autorregulación de la industria de la IA por parte de las administraciones públicas. Mientras tanto, en el contexto de una crisis de los formatos estandarizados de credibilidad, definida desde hace algunos años por el término “posverdad”, las redes sociales ya se están llenando de mensajes, imágenes o textos sintéticos generados por estas herramientas. La automatización del discurso público y sus implicaciones en un contexto de creciente desinformación y polarización política estarán en el centro de la agenda mediática en los próximos años.
08. Informática. El surgimiento de la joven industria de la IA no hubiera sido posible sin la alianza con las plataformas de la ola del big data (Microsoft, Google, Amazon, Meta y otras). Estos gigantes tecnológicos, que han construido su hegemonía económica en la extracción y comercialización de datos de usuarios de servicios en línea, cuentan ahora con una infraestructura informática de proporciones planetarias. En sus centros de datos, procesan las grandes cantidades de imágenes, texto y sonido extraídos de la web. Esta es una tarea que solo puede ser manejada por supercomputadoras especializadas: enormes concentraciones de servidores dedicados que trabajan día y noche para entrenar la última actualización de un modelo de IA, exponencialmente mayor que el anterior.
09. Potencia de cálculo. En el corazón de estas infraestructuras se encuentra un dispositivo clave: las unidades de procesamiento gráfico (GPU). Proporcionan la potencia informática necesaria para acelerar las cargas de trabajo de aprendizaje automático, una potencia que una investigación de IA descubrió hace una década en las tarjetas gráficas para la exigente industria de los videojuegos. Estos dispositivos están en manos de unas pocas empresas que gozan de un cuasi monopolio a nivel mundial (sobre todo Nvidia, que ha consolidado su sistema propietario). Su producción se externaliza al mercado de semiconductores, que está aún más concentrado: la Taiwan Semiconductor Manufacturing Company (TSMC) produce el 90% de los chips más avanzados y confía en los equipos de impresión litográfica de la empresa holandesa ASML. Este conglomerado industrial fabrica en última instancia los componentes principales de los servidores para más de 8.000 centros de datos en todo el mundo.
10. Materias primas. Los chips semiconductores que alimentan los servidores, así como los dispositivos móviles que utilizamos para compartir información, son el producto final de este complejo conglomerado de inversiones, fabricantes y equipos. Pero la síntesis de los diminutos circuitos integrados, así como de las baterías, las fuentes de alimentación, las unidades de distribución de energía y otros componentes de los dispositivos electrónicos, requiere grandes cantidades de metales, minerales y otras materias primas. La profesora Jennifer Gabrys, especializada en la materialidad de los medios digitales, analiza la cantidad de recursos utilizados para fabricar un microchip: “Para producir un microchip de memoria de dos gramos, se requieren 1,3 kilogramos de combustibles y materiales fósiles. En este proceso, solo una fracción del material utilizado para fabricar microchips está realmente contenida en el producto final, y hasta el 99 por ciento de los materiales utilizados se desechan durante el proceso de producción. Muchos de estos materiales desechados son productos químicos, contaminantes, inertes o incluso de niveles no identificados de toxicidad” (Gabrys, 2011). La cadena de suministro que vincula las salas blancas de la innovación tecnológica con la extracción de estos minerales está envuelta en un velo de conveniente opacidad, facilitado por empresas y proveedores intermedios que no certifican el origen de los materiales con los que trabajan.
11. La industria minera, que abastece a los principales fabricantes de hardware digital, se extiende a lo largo y ancho del mundo y se concentra en los países del sur global.
Yo. Los fabricantes utilizan cobre en los chips más potentes debido a su mayor conductividad eléctrica. Uno de los polos de la minería del cobre se encuentra en los países sudamericanos de la costa del Pacífico, principalmente Chile y Perú. En el sur del Perú se encuentra el llamado “corredor minero” (explotado por la empresa china MMG Ltd, la empresa suiza Glencore y la empresa canadiense Hubbay). En el Perú, la exportación de minerales es uno de los pilares de la economía, pero también es uno de los principales focos de conflicto debido a las desigualdades en la distribución de los ingresos mineros y a los problemas de salud de la población local como consecuencia de la contaminación del agua.
II. Otro material conductor apreciado por la industria es el oro. Se utiliza en la producción de teléfonos inteligentes, computadoras y servidores, y parte de la cadena de suministro de las principales plataformas tecnológicas lo importa de Brasil, donde el 28% de su extracción es ilegal. A pesar de que la ley brasileña no permite oficialmente la minería en tierras indígenas, la minería ilegal de oro en la Amazonía brasileña se ha disparado desde 2019. Los investigadores han documentado decenas de miles de mineros a pequeña escala y más de 320 minas ilegales, con la probabilidad de que el número real sea mucho mayor. La minería de oro a pequeña escala ha provocado una deforestación generalizada y altos niveles de contaminación por mercurio (Manzolli, 2021).
III. La producción de baterías depende de un componente clave: el litio. Y Chile es uno de los principales productores mundiales de este codiciado mineral. El Salar de Atacama, un área casi cuatro veces el tamaño de Santiago de Chile, alberga una de las minas de litio más grandes del mundo. El aumento de la demanda está afectando cada vez más a las comunidades locales, amenazando su acceso al agua y empobreciendo la biodiversidad única de la región.
IV. La producción de baterías de litio también requiere cobalto, y casi la mitad de las reservas mundiales de este mineral se concentran en África, principalmente en las minas militarizadas del Congo, donde hay evidencias documentadas del uso de mano de obra infantil y violaciones de los derechos humanos más básicos. En todos estos casos, se repite el mismo patrón: las empresas extranjeras negocian con una élite local sobre la explotación de la tierra, dejando de lado los intereses de las comunidades locales. En este sentido, podemos entender cómo la industria privada de la supercomputación se ha construido sobre los cimientos coloniales de la extracción de recursos en los países del Sur Global.12. Energía. Desde que la IA generativa entró en la conciencia pública, la tecnología ha impuesto exigencias sin precedentes a la energía. El aumento de la inversión, las aplicaciones y la cobertura mediática en los últimos años ha multiplicado las necesidades de energía de los servidores en los centros de datos. Hoy en día, un solo centro de datos puede consumir el equivalente a 50.000 hogares. Y la IA no ha hecho más que aumentar la dependencia energética: mientras que hace tres años un rack de servidores consumía entre 5 y 10 kilovatios, los servidores dedicados de IA de hoy en día requieren más de 60 kilovatios. Este cambio repentino se traduce en inversión en equipos y enormes costos de energía, ya que parte del aumento de la potencia se cubre actualmente con generadores diésel (Pasek, 2023).
13. Combustibles fósiles. Se estima que la electricidad utilizada por los centros de datos representa el 0,3% de las emisiones totales de carbono, y cuando se incluyen los dispositivos personales conectados, como computadoras portátiles, teléfonos inteligentes y tabletas, el total se eleva al 2% de las emisiones globales de carbono (Monserrate, 2022). En el contexto del calentamiento global, el continuo crecimiento de la infraestructura de cómputo, con una proyección del 10% de nuevos centros de datos por año (Espinoza, Aronczyk, 2021), es insostenible frente a un futuro caracterizado por el calentamiento global y la extinción de especies. La mayor parte de la electricidad que consumen los centros de datos proviene de combustibles fósiles, y aunque las plataformas están invirtiendo fuertemente en la reducción de sus emisiones, parece que esto no es necesariamente evitando los combustibles fósiles (las propias plataformas digitales se están convirtiendo cada vez más en socios de la industria del petróleo y el gas), sino explotando la economía de compensación de carbono, es decir, invirtiendo en proyectos forestales o eólicos que a menudo son más simbólicos que reales.
14. Compensación de carbono. Una gran proporción de los proyectos de compensación de carbono se encuentran en tierras gestionadas por comunidades indígenas de todo el mundo. Se trata de lugares que aún tienen bajos índices de deforestación y atraen inversiones por su capacidad regenerativa. Las decisiones sobre el uso de la tierra a menudo excluyen los intereses de las propias comunidades, lo que provoca conflictos o desplazamientos (Kramarz et al., 2021). Además, el mercado de carbono no resuelve el problema de las emisiones, sino que promueve la utopía del crecimiento infinito sin consecuencias para la industria informática y reduce el problema climático a una transacción de compra y venta de soluciones. Del mismo modo, la inversión en eficiencia energética y energías renovables tiene sus límites. Los grandes parques solares y eólicos necesitan encontrar sitios viables, y no están exentos de conflictos comunitarios. Las nuevas centrales de energía verde no serán suficientes para lograr la descarbonización si quieren seguir satisfaciendo la creciente demanda de informática. Y lo que es más importante, no serán capaces de soportar las cargas informáticas previstas por las plataformas de IA emergentes. Esta evidencia no pasa desapercibida para sus directores ejecutivos, que ya han comenzado a invertir en la industria de la fisión nuclear. La proliferación de grandes modelos de IA generativa requiere más computación y más energía para alimentarlos. Mientras tanto, la huella de carbono de la computación planetaria ya ha superado a la de la industria aérea.
15. Calor. La huella ambiental de la IA no se limita a las emisiones de carbono. La industria digital no puede funcionar sin generar calor. El procesamiento de contenidos digitales eleva la temperatura de las salas que albergan los racks de servidores en los centros de datos. Si no se controla, el calor excesivo representa un riesgo para el correcto funcionamiento del equipo. Por lo tanto, el calor debe reducirse constantemente en dichos equipos. Para controlar la amenaza termodinámica, los centros de datos dependen de la climatización, equipos que consumen más del 40% de la electricidad del centro (Weng et al., 2021). Pero esto no es suficiente: dado que el consumo de energía adicional necesario para adaptarse a la IA genera más calor, los centros de datos también necesitan métodos de refrigeración alternativos, como los sistemas de refrigeración líquida. Los servidores están conectados a tuberías que transportan agua fría, que se bombea desde grandes estaciones vecinas y se devuelve a las torres de agua, que utilizan grandes ventiladores para disipar el calor y aspirar agua dulce. Según Google, este consumo de agua oscila entre los 4 y los 9 litros por kWh de potencia del servidor. Una cantidad significativa para una plataforma que suele estar más preocupada por la sostenibilidad que muchas de sus pares. El consumo de agua en los centros de datos de la compañía ha aumentado más del 60% en los últimos cuatro años, un aumento que es paralelo al auge de la IA generativa.
16. Agua. La construcción de nuevos centros de datos ejerce presión sobre los recursos hídricos locales y se suma a los problemas de escasez de agua causados por el cambio climático. Las sequías afectan a los niveles de agua subterránea en zonas con estrés hídrico, y están empezando a surgir conflictos entre las comunidades locales y los intereses de las plataformas. En 2023, los residentes de Montevideo que sufrían escasez de agua protagonizaron una serie de protestas contra los planes de construir un centro de datos de Google. Ante la polémica por el alto consumo, los equipos de relaciones públicas de Microsoft, Meta, Amazon y Google se han comprometido a ser hídricos positivos para 2030, una apuesta basada en inversiones en sistemas de circuito cerrado por un lado, pero también en la recuperación de agua de otros lugares para compensar el inevitable consumo y evaporación que se produce en los sistemas de refrigeración.
17. Residuos. En los centros de datos, los acondicionadores de aire, los transformadores, las baterías o las fuentes de alimentación se retiran y desechan regularmente cuando expiran las garantías. A continuación, los equipos desmantelados se añaden a la lista de residuos electrónicos. Estos residuos son difíciles de reciclar y, a pesar de algunas iniciativas locales en Europa, rara vez se reutilizan, al menos en el campo de la informática de alto rendimiento. Con una media de más de tres dispositivos por persona en todo el mundo y una vida media de menos de dos años, el mercado de los gadgets digitales, el fetiche de la última innovación o actualización, supone una generación constante de residuos. Actualmente generamos un promedio de 7,3 kg de residuos electrónicos por persona al año, de los cuales el 82,6% termina en vertederos o se recicla informalmente (Forti et al., 2020). El reciclaje de las materias primas contenidas en los residuos electrónicos es un mercado muy poco regulado basado en las exportaciones a terceros países (el 64% de los residuos electrónicos de los centros de reciclaje en Europa se envían a África).
18. Fósiles. Decenas de miles de toneladas de residuos electrónicos cada año, que tardarán milenios en descomponerse, terminan en vertederos informales como los de Agbogbloshie, Ghana, donde se incineran materiales peligrosos, exponiendo a las personas que sobreviven mediante el reciclaje a humos tóxicos y elementos radiactivos. El mercurio, el cobre, el plomo y el arsénico se filtran en el suelo y las vías fluviales, acumulando sustancias químicas nocivas en el ecosistema y sus cadenas alimentarias. A pesar de la creciente concienciación y la introducción gradual de nuevas regulaciones, los residuos de la industria digital son uno de los signos más visibles de nuestro legado fósil. Cómo la cantidad de recursos, minerales, metales y energía invertidos en dispositivos informáticos termina dando forma a un sedimento particular que persistirá en el tiempo geológico profundo.
19. Giro estético. Todas estas infraestructuras, extracciones, transformaciones, inversiones, externalizaciones, cálculos, modelos estadísticos y mercados laborales se interrelacionan y, en última instancia, dan forma a lo que se conoce como IA generativa. Se trata de un fenómeno sociotécnico que ha emergido del predominio de la probabilidad como modelo epistemológico para enfrentar los desafíos del presente. La implementación de estas herramientas estadísticas en cada vez más contextos de actividad humana ha tomado un giro particular en los últimos años. Si en un principio se utilizaban principalmente para rastrear, extraer y analizar información de los contenidos de la comunicación en red, este análisis se ha empezado a utilizar para sintetizar las propias formas de comunicación. En este sentido, el fenómeno de la IA generativa puede entenderse como un giro estético. Si el mimetismo de las capacidades cognitivas humanas ha impulsado la investigación del aprendizaje automático hasta nuestros días, este giro estético ha dirigido la investigación hacia áreas más características de la expresión y la creatividad humanas. La trayectoria de esta investigación ha mutado de varias maneras en los últimos años.
20. Escala. En general, la investigación de la IA generativa se ha trasladado de la academia y la ciencia a la industria y ha provocado una ola de especulación económica. En el proceso, se han desencadenado varios cambios en la escala. En primer lugar, la escala de cálculo. Desde 2012, cuando el proyecto Alexnet utilizó por primera vez las GPU para ganar un concurso de reconocimiento de imágenes, hasta 2024, cuando Nvidia anuncia que triplicará la producción de la última generación de GPUs hasta los 2 millones de unidades, se produce un cambio de escala que afecta e involucra a toda la cadena de suministro mencionada anteriormente. En segundo lugar, la escala de los conjuntos de datos ha cambiado. Mientras que las grandes plataformas ahora parecen estar interesadas en la funcionalidad de los modelos a menor escala, en los últimos años la atención se ha centrado en la automatización generalista de tareas. Esto significa que, además de procesar un conjunto de datos de gran tamaño, ese conjunto de datos debe contener una gran variedad de registros. Para lograr esta diversidad, los modelos deben haber sido entrenados mediante el rastreo y el procesamiento de una proporción inconmensurable de contenido accesible a la web. Paralelamente a estos cambios de escala, se ha producido un aumento de la privatización de herramientas y conocimientos en este campo. La mayoría de las herramientas de IA son de código abierto, pero incluso las que no lo son suelen basarse en documentos académicos disponibles públicamente, por lo que tarde o temprano alguien hará una versión gratuita. A medida que los modelos se hacen más y más grandes, la barrera de entrada para los investigadores se vuelve más difícil de superar. Cuando apareció el modelo de generación de texto GPT-2, el predecesor de ChatGPT, cualquier persona con los conocimientos necesarios y un ordenador medianamente potente podía descargar la red en su ordenador y entrenarla con su propio conjunto de datos. La siguiente generación, el modelo GPT-3, con parámetros y capacidad más altos, ahora se ofrecía solo como un modelo cerrado, limitado al entrenamiento en los servidores de la plataforma. Este cambio de paradigma ha marcado la consolidación y aceptación de estas herramientas en los últimos años, junto con el impulso de las interfaces de usuario y los sistemas de pago por suscripción. Los acuerdos comerciales entre start-ups y plataformas como Microsoft, Google o Amazon han hecho que en pocos años las técnicas de IA generativa se conviertan en infraestructuras, en una escalada exponencial sin precedentes en la que lo verdaderamente generativo no es el contenido sintético que aportan, sino la generación de equipos, industrias auxiliares e impactos medioambientales que trae cada nueva actualización.
21. Contra-mapeo. El conjunto de relaciones aquí presentadas forma un mosaico difícil de captar porque implica la vinculación de objetos y conocimientos de diferentes tipos y escalas. Los discursos en torno a la IA suelen tener una fuerte carga mítica y van acompañados de una serie de metáforas e imaginarios recurrentes: agencias algorítmicas desligadas de la acción humana, la tecnología no negociable que nos impone el futuro, la universalidad de los datos, o la capacidad de producir modelos libres de sesgos o visiones del mundo. El conjunto de discursos que rodean a estas tecnologías, ya sean más especializadas o más populares, acaban moldeándolas de una forma u otra. Por ello, el proyecto Cartografía de la IA Generativa se basa en la motivación de ofrecer un mapa conceptual que abarque gran parte de los actores y recursos implicados en este objeto complejo y polifacético que denominamos IA Generativa. A partir de una larga genealogía de cartografías críticas dedicadas a arrebatar la función de los mapas como productores de verdades hegemónicas, esta visualización pretende cartografiar el fenómeno, teniendo en cuenta las tensiones, controversias y ecosistemas que lo hacen posible.
https://cartography-of-generative-ai.net/cartografiaia_esp.pdf
-
Este debate fue modificado hace 12 meses por
Secretario_General.
-
Este debate fue modificado hace 12 meses por
-
20 de agosto de 2025 a las 13:04 #535

Secretario_GeneralSuperadministradorBuenos días a todos.
Un artículo distribuido esta mañana en el grupo de whatsapp de comunicación de la AEAC por Emili Giralt, presidente del grupo catalán de la AEAC ha causado cierto revuelo, por lo que considero conveniente hacer partícipes a todos los miembros de este foro
El artículo en francés es: https://trends.levif.be/opinions/chroniques/attention-lia-peut-ralentir-la-science/
Y como el acceso es restringido, lo he traducid aquí: https://aeac.science/wp-admin/upload.php?item=671409Emilio Criado considera necesario reflexionar sobre el tema `
Alberto Ruiz está de acuerdo y añade que En todo caso hablar de una IA como si todas fueran equivalentes es como hablar del cáncer como si solo hubiera uno
Responde E.C que – Totalmente de acuerdo las simplificaciones y demonizaciones ante fenómenos complejos llevan a no poderse dotar de respuestas coherentes y eficaces
y Mª Carmen Andrade añade ‘ Pero es importante el contrapunto negativo porque los jóvenes creen que les va a resolver todo’
Por último Concha Roldán añade ‘Bueno, yo no generalizaría tanto: hay muchos jóvenes críticos con “las bondades de la IA” (o de las IA si preferís, por recoger el guante de Alberto)’
Os invito a uniros al debate y opinar sobre el tema
-
28 de febrero de 2026 a las 13:56 #622

Secretario_GeneralSuperadministradorDecálogo IA
El CSIC ha elaborado directrices sobre el buen uso de la inteligencia artificial generativa (IA generativa, en adelante), partiendo de una concepción amplia de esta tecnología.
El documento incluye:
El Decálogo. Cada punto se resume en una frase, fácil de entender y recordar.
Las Directrices, que desarrollan el Decálogo.
La lista de comprobación para el uso práctico de las directrices,
-
-
AutorEntradas
- Debes estar registrado para responder a este debate.