RICCE, 2024 Vol. 2 Nro 2: https://dꢀi.ꢀꢁg/ 1ꢂ.ꢃ8168/RICCE.vꢄnꢄp5  
ꢅꢆꢆꢇꢈ://ꢁevistas.uꢉasaꢉꢉe.edu.pe/ꢁicce  
HACIA UN NUEVO HORIZONTE  
FILOSÓFICO PARA AFRONTAR LOS  
RETOS ÉTICOS Y REGULATIVOS QUE NOS  
PLANTEA LA INTELIGENCIA ARTIFICIAL  
Fecha De receP cIón: 06-05-24 / Fecha De aceP tacIón: 06-06-24  
Andoni Aguirre González1  
InstItuto DIocesano De teología y Pastoral De BIlBao  
Correo electrónico: katuzalea@gmail.com  
ORCID: https://orcid.org/0000-0002-6615-6644  
2
Roberto Casas Andrés  
InstItut suPerIor De cIèncIes relIgIoses De Barcelona  
Correo electrónico: roberto.casas@deusto.es  
ORCID:https://orcid.org/0000-0002-8276-6602  
Resumen  
Este artículo parte del hecho de que la Inteligencia Artificial (IA) es una realidad presen-  
te en numerosas facetas de nuestra vida para las que ofrece numerosos beneficios. Sin  
embargo, no está exenta de riesgos y desafíos que hay que saber describir de modo certe-  
ro. Este artículo muestra algunos de los riesgos y desafíos más importantes que la IA nos  
plantea, y se detiene en la aportación de Yuk Hui al señalar que es posible que lo que está  
en juego es la misma noción de lo humano. Tras señalar los riesgos, el artículo ofrece posi-  
bles vías de respuesta a estos desafíos, prestando especial atención a la propuesta de Yuk  
Hui para afrontar el determinante reto a la propia viabilidad de lo humano que puede que  
el desarrollo de la IA no esté planetando.  
Palabras clave: Inteligencia Artificial, ética, regulación, Yuk Hui, cosmoténicas, tecnodi-  
versidad.  
1
Colaborador del Instituto Diocesano de Teología y Pastoral de Bilbao (IDTP), donde desarrolla tareas de docencia e investiga-  
ción en áreas dirigidas a la formación del laicado y el análisis de la realidad para orientar adecuadamente los proyectos pastorales  
de la diócesis de Bilbao.  
2
Profesor no Estable en el Institut Superior de Ciències Religioses de Barcelona (ISCREB), donde imparte varias asignaturas den-  
tro del Bachillerato en Ciencias Religiosas y de las materias para obtener la Declaración Eclesiástica de Competencia Académica  
DECA), además de formar parte del Comité Consultivo y ser el Coordinador del Centro Asociado del ISCREB en Bilbao.  
(
5
Revista de ciencia de la Complejidad  
1
. introduCCión  
La inteligencia artificial (IA) ha dejado de ser un elemento asociado a la ciencia ficción  
para convertirse en una realidad plenamente tangible y cada vez más presente en nuestra  
vida cotidiana. Nuestros teléfonos y ordenadores están llenos de asistentes y sistemas de  
recomendación para elementos como el tráfico, las compras de cada día y muchas otras  
decisiones que pueden resultar más trascendentes, como la compra de coche o vivienda,  
la búsqueda de pareja, o incluso la selección de personal en una empresa.  
Pero, más allá de esta creciente influencia de la IA en nuestras vidas, es importante abordar  
las preguntas y retos éticos que nos suscita, y que merecen nuestra atención y reflexión ya  
hoy en día y también cara al futuro.  
2
. la ia Hoy En día En nuEstras vidas: lo quE ya Es prEsEntE  
y va a Conformar El futuro  
La inteligencia artificial era hasta hace bien poco un elemento de atractivas fantasías futu-  
ristas, por un lado, y de generación de miedos distópicos, por el otro. Pero, poco a poco, se  
ha convertido en un elemento clave y patente en nuestra sociedad y la está transformando,  
junto con nuestra manera de vivir, de manera rápida e imparable.  
En este artículo nos vamos a centrar en los retos y dilemas éticos que la IA nos puede plan-  
tear, pero todo ello sin menospreciar ni oscurecer el enorme potencial que tiene la IA para  
mejorar nuestras vidas, algo que es necesario dejar claro.  
Una vez lo digital se está convirtiendo cada vez más en lo habitual y “normativo” (la rele-  
vancia del mundo online supera, en muchos casos, al offline, como, por ejemplo, en las rela-  
ciones humanas de amistad y búsqueda de pareja), la IA se ha ido integrando en cada vez  
más aplicaciones, sistemas y plataformas de uso cotidiano. Pongamos algunos ejemplos:  
El uso de ChatGPT (aunque también existen en el ámbito profesional otros motores  
similares de IA, como, por ejemplo, Copilot de Microsoft, basado en el propio ChatGPT)  
es ya muy habitual en la población: desde niños haciendo sus deberes hasta la genera-  
ción y depuración de código de programación y discursos o presentaciones, pasando  
incluso por grupos de amigos haciendo unas risas con poemas robotizados, cuentos,  
discursos o similares.  
En el ámbito sanitario, los avances surgidos de la mano de la IA están permitiendo diag-  
nósticos cada vez más precisos y tratamientos personalizados para cada persona y sus  
circunstancias genéticas y personales.  
En la educación también está cambiando de manera profunda la manera en la que  
6
Revista de ciencia de la Complejidad  
nuestros niños y jóvenes aprenden, con nuevos sistemas de enseñanza y tutoría y la po-  
sibilidad de adaptar los contenidos a las necesidades individuales de cada estudiante.  
Los coches sin conductor ya están a punto de revolucionar la manera en la que nos mo-  
vemos por nuestras ciudades, aportando tanto potenciales ventajas como inevitables  
y evidentes dilemas éticos.  
La IA ya está generando conflictos laborales por las potenciales amenazas que la mis-  
ma puede ejercer sobre determinados sectores laborales y los derechos de sus profesio-  
nales. Casos muy relevantes en medios de comunicación han sido, por ejemplo, los de  
3
los guionistas y los actores de doblaje .  
Pero, más aún, a nivel general la IA puede acabar con la necesidad de mucha mano de  
obra y, por tanto, de muchos empleos, generando un futuro incierto para los trabajado-  
res de los sectores afectados que no sean capaces de reciclarse de una manera produc-  
tiva en el nuevo marco tecnológico.  
También estamos viendo cómo en la guerra ya es la IA quien define los objetivos a ata-  
car, como está sucediendo en la guerra de Gaza con Israel y sus sistemas como Lavender  
y TheGospel (González Pascual, 2024).  
La suplantación de identidad de menores en imágenes pornográficas por medio de la  
IA ha salido a la luz en varios casos, que evidencian que el procesado de datos puede  
generar vídeos trucados que, a modo de acoso o venganza, pueden generar graves pro-  
4
blemas psicológicos .  
Por último, mencionaremos los cada vez más habituales casos de empleo de las redes  
sociales para, a través de noticias falsas, generar climas de crispación y tendencias po-  
líticas polarizadas o distorsionadas .  
5
3
. posiblEs riEsgos y rEtos ÉtiCos dE la ia  
A medida que la IA se convierte en una fuerza cada vez más presente en nuestras vidas,  
surgen una serie de riesgos y desafíos éticos que merecen un serio análisis. Vamos a ex-  
poner brevemente, y a modo de incitación a la reflexión, tres ejemplos ilustrativos de este  
tipo de riesgos.  
3
Es muy representativa a este respecto la reciente huelga de los actores de doblaje italianos por los riesgos que la IA puede  
generar en su futuro profesional (Hernández Velasco, 2023).  
4
5
En EEUU ya se ha producido la primera condena por la creación de imágenes de desnudos empleando la IA (Scaliter, 2024).  
Es paradigmático en este sentido el caso de Facebook y Cambridge Analytica, pero el desarrollo exponencial de la IA puede  
generar riesgos aún más potentes en esta materia.  
7
Revista de ciencia de la Complejidad  
La DiscRiminación aLgoRítmica y Los ínDices De VaLoRación ciuDaDana. PRiVa-  
ciDaD, contRoL…  
Como un ejemplo ilustrativo de los posibles riesgos que amenazan nuestra privacidad de  
la mano del desarrollo de la Inteligencia Artificial, es ya una realidad la posible vigilancia  
por parte de estados y poderes económicos a través de los sistemas de crédito social (citi-  
6
zen score) (Benanti, 2018b, pp. 30-43) . El país donde esta tendencia se ve con más claridad  
es China, donde empresas como la financiera Credit Sesame o Alibaba ya emplean índices  
de clasificación de sus clientes en “buenos” y “malos” en función de la información que re-  
caban de los mismos por diversos medios, fundamentalmente la relacionada con las com-  
pras que realizan y su historial de pagos.  
Índices que pueden acabar impactando en elementos que están más allá de su actividad  
comercial, modificando las conductas de los usuarios para obtener mejores puntuaciones  
en dichos índices a favor tanto de los intereses de empresas como del propio gobierno.  
Podría no estar lejos un índice ciudadano elaborado directamente por el estado de China  
con capacidad para condicionar de manera brutal las conductas ciudadanas (por ejemplo  
los ciudadanos “malos” podrían tener limitaciones en servicios como la conexión a inter-  
net o el acceso al ocio y a viajes, mientras que los “buenos” serían premiados con este tipo  
de ventajas). Pero, si bien el carácter del régimen chino agudiza los problemas derivados de  
este tipo de índices de clasificación, esta realidad no es ajena a los países occidentales y se  
está agudizando con el auge de las empresas que gestionan las redes sociales.  
eL Riesgo De PéRDiDa De emPLeo De maneRa masiVa ante La ingente caPaciDaD  
De PRocesaDo De Datos que aPoRta La ia: La “cLase inútiL”  
El concepto de “clase inútil” fue acuñado por Yuval Noah Harari en relación a los riesgos  
de pérdida de empleo que puede suponer tanto el despliegue masivo de la IA en el ámbito  
laboral como los avances del mundo digital en general.  
Harari, en la línea de su facticismo en relación a la imposición del dataísmo sobre las deci-  
siones humanas, profetiza este potente cambio en el mundo político, siendo uno de los ele-  
mentos que contribuiría a la creación de una “clase inútil” en las próximas décadas (2017,  
pp. 349-359). Las personas cada vez serían menos relevantes en el ámbito de la producción  
y de la guerra (donde antes la mano de obra humana era el elemento principal y ahora  
algoritmos y robots ocuparán en gran medida su papel), pero también en la toma de deci-  
siones políticas.  
6
Para profundizar en la postura de Paolo Benanti sobre este tema puede consultarse el capítulo “Cittadani o utenti di una  
piattaforma?” (2018a, pp. 28-41).  
8
Revista de ciencia de la Complejidad  
eL imPacto en eL munDo De La PoLítica y La DemocRacia  
Así, el anteriormente citado efecto de lo económico saltaría a lo político. Si las decisio-  
nes las toman algoritmos supereficientes y certeros, puede que no tengamos que ir a votar  
cada cuatro años, desapareciendo así la palanca de poder que supone para la ciudadanía  
el colocar al frente de los gobiernos a unos u otros políticos. De esta forma, la “clase inútil”  
no sólo lo sería en lo económico, sino también en lo político.  
Por otro lado, la comunicación en las redes sociales está situando de manera creciente  
los discursos y los debates más en el plano emocional y narrativo que en el racional y éti-  
7
co-moral. Asistimos en la comunicación digital a un auge del storytelling, en el que, en  
muchas ocasiones, priman las argumentaciones míticas o basadas en los sentimientos so-  
bre las reflexiones de carácter racional. El pensador italiano Paolo Benanti ve muy claro el  
impacto de esta tendencia en la política (2018a, p. 42):  
La narrazione ha invaso il mondo politico. Oggi nel dibattito pubblico le numerose sfide etiche  
che la nostra società debe affrontare sono preséntate nella forma del raconto e della narrativa  
piuttosto che dell’argomentazione.  
En este escenario de una política cada vez menos reflexiva y más escorada hacia nuestro  
lado emocional, es innegable el riesgo que la IA puede derivar muy fácilmente en la gene-  
ración de fakenews y contenidos polarizadores y desestabilizadores del contexto sociopo-  
lítico.  
4
. Con la ia, ¿podría sEr la propia noCión dE lo Humano lo  
quE Estaría En juEgo?  
El desarrollo de la IA pone de manifiesto un desafío aún más global al que nos puede es-  
tar enfrentando su frenética evolución, la cuestión del ser humano. Según el emergente  
filósofo de Hong Kong Yuk Hui, “la evolución de las máquinas anuncia el fin del humanis-  
mo” (2020, pp. 44-49), pero sólo si dejamos que la tecnología se desarrolle exclusivamente  
en el seno del pensamiento occidental como matriz epistemológica única y universal, que  
sincroniza y globaliza el conocimiento en una única episteme. Esta uniformidad episte-  
mológica es la que ha propiciado una visión única de la tecnología como un universal an-  
tropológico que se podría definir como “exteriorización de la memoria y liberación de los  
órganos” (2020, p. 11).  
Para este filósofo e ingeniero informático, esta hegemonización de la tecnología entendida  
desde el marco del pensamiento occidental ha favorecido la globalización tecnológica, que  
7
4
Este tema también es abordado por Paolo Benanti en el apartado “I social network e un mondo post-fattuale” (2018b, pp.  
4-48).  
9
Revista de ciencia de la Complejidad  
ha impuesto la instrumentalidad como principio fundamental del desarrollo tecnológico y  
cuya radicalización ha conducido a fantasiosos planteamientos extremos como la política  
transhumanista y las propuestas neorreaccionarias. En opinión de Juk Hui, la disolución  
de lo humano es un horizonte casi inevitable, a no ser que nos enfrentamos a esta raciona-  
lidad hegemónica y la disgreguemos, aceptando la idea de la existencia de una multitud de  
cosmotécnicas. Hui define cosmotécnica como “la unificación del cosmos y lo moral por  
medio de actividades técnicas, pertenezcan estas al ámbito de los oficios o del arte” (2020,  
pp. 56-57). Es decir, frente al aislamiento de la técnica como una actividad ajena al orden  
moral y simbólico típico de la concepción de técnica occidental, para Hui las diferentes  
culturas interactúan con la materialidad del mundo dentro una visión unificada de la rea-  
lidad en la que la manipulación del entorno se integra en una visión global que articula el  
orden material (cosmos) y el orden simbólico y de significado (a eso se refiere Hui cuando  
habla de “lo moral”).  
Considerando que la técnica no es una realidad antropológica universal y unívoca, sino  
una constelación de diferentes cosmotécnicas, habría que reapropiarse de la tecnología y  
el desarrollo de la inteligencia artificial desde un abanico lo más amplio posible de episte-  
mologías y epistemes diferentes. Dicho de otro modo, frente a la cultura monotecnológica  
occidental, habría que apostar por una diversificación de tecnologías que conllevara una  
diversificación de modos de vida, de formas de coexistencia, de economías, etc. Esta tec-  
nodiversidad no implicaría la imposición de un marco ético específico a la tecnología, por-  
que este siempre llega tarde y únicamente existe para ser transgredido. En su lugar, una  
multiplicación y diversificación de tecnologías y actitudes frente a la naturaleza superaría  
la concepción de la Tierra como un mero stock de existencias, proponiendo variadas for-  
mas de habitar nuestro planeta e interactuar con él (2020, pp. 103-104).  
5
. la importanCia dE la rEgulaCión. El Caso dE la uE  
enfoque geneRaL sobRe La ReguLación De La ia y DeL sectoR tecnoLógico en ge-  
neRaL  
Gran parte de los citados riesgos y retos éticos planteados por la IA de cara al futuro (y ya  
también en el presente) se pueden ver avivados por la falta de control por parte de los esta-  
dos a las grandes empresas tecnológicas que la desarrollan y en las que es generalizada su  
utilización. Aunque el tema de la regulación de las tecnológicas daría para un largo debate,  
que estos serían algunos de los aspectos clave más importantes a la hora de impulsar un  
planteamiento ético en el desarrollo de la IA en particular y del mundo de la comunicación  
digital de manera más general:  
Garantizar que las empresas tecnológicas son lo suficientemente transparentes con  
los clientes y usuarios a la hora de informarles del uso que van a hacer de sus datos.  
Como acabamos de comentar, esto debería de hacerse de manera concreta, indicando  
1ꢂ  
Revista de ciencia de la Complejidad  
muy claramente los usos específicos y las organizaciones que tienen acceso a nuestros  
datos.  
Además del uso en sí, la transparencia debería de ser completa en relación a la manera  
en la que nuestros datos son capturados y almacenados: navegación, emails, compras.  
RRSS, aplicaciones de mensajería, medios de comunicación, otro tipo de apps…  
Disponer de mecanismos técnicos suficientemente protegidos y eficientes para la sal-  
vaguarda de los datos de clientes y usuarios.  
Establecer un protocolo de auditoría y control de los algoritmos empleados, para ga-  
rantizar que, además de los dos puntos anteriores, se cumplen todas las normativas  
8
legales existentes en el país en el que se usan los servicios. Es fundamental evitar la  
falta de equidad y la discriminación en el diseño y la utilización de los algoritmos por  
razones de sexo o género, raza, nacionalidad, ideología o posición social.  
Resulta fundamental establecer mecanismos antimonopolio y de defensa de la com-  
petencia en cada uno de los sectores donde las grandes tecnológicas actúan, ya que,  
desgraciadamente, este tipo de empresas suelen acabar convirtiéndose en monopolios  
de facto, con una competencia meramente formal en un marco que termina por dejar  
indefenso al ciudadano y al consumidor y que, en muchos casos, llega a amenazar in-  
cluso el poder y la legitimidad de los propios estados. No resulta para nada desdeñable  
la posibilidad de recurrir a la partición de las empresas que alcanzan este tipo de posi-  
ciones dominantes como mecanismo de garantía del libre mercado y de la protección  
9
de los derechos de la ciudadanía.  
Se debe regular de una manera objetiva y justa el ejercicio de la libertad de expresión  
1
0
en los medios digitales, así como sus límites. Es una cuestión muy espinosa , pero a la  
vez esencial en un sistema democrático, que no puede estar al albur de decisiones arbi-  
trarias (nos parezcan o no razonables en cada caso según nuestra ideología y valores)  
de los propietarios de los medios digitales o de grupos de presión.  
Otro de los ámbitos que resulta muy controvertido es el de la fiscalidad. El posiciona-  
miento global de estas empresas les permite en muchos casos tributar en la sede que  
más provechosa les resulte, independientemente de los ámbitos principales de desa-  
rrollo de su negocio. Esta situación de privilegio frente al resto de contribuyentes (tan-  
to particulares como empresas) dificulta la competencia y erosiona la confianza de los  
8
Puede consultarse la publicación de Paolo Benanti en su blog sobre la decisión de la FTC (Federal Trade Commission) nor-  
teamericana de obligar a la app de almacenamiento de fotos Ever a eliminar un algoritmo (2021).  
9
(
Sobre este tema recomendamos la lectura del artículo de Marta Peirano “Cinco propuestas radicales para las redes” en El País  
2020).  
Ejemplo de la controversia en este sentido es el artículo de Joan Barata en El País “¿Quién debe poner orden en la Red?”  
10  
(2021).  
1
1
Revista de ciencia de la Complejidad  
ciudadanos en el sistema democrático.  
Algo similar a lo comentado sobre la fiscalidad sucede con las condiciones sociales de  
los trabajadores que, muchas veces, pierden derechos en el marco de las nuevas plata-  
formas (falsos autónomos, obligación de aportar medios propios para el trabajo…).  
Y, todo esto, sólo tiene sentido si los marcos de regulación son transnacionales, ya que  
este tipo de empresas y plataformas tecnológicas trascienden de manera evidente en  
su actividad del ámbito de los estados. Debemos reconocer que este tema resulta muy  
complejo, pero es la piedra de toque fundamental para atacar el problema regulatorio.  
eL gRan DiLema: Hasta DónDe eL contRoL De La ia y su uso nos PueDe HuRtaR  
sus enoRmes beneficios  
Siendo conscientes de los riesgos planteados (y de otros muchos que podríamos poner  
sobre la mesa), el gran dilema que se nos presenta es: ¿hasta dónde hemos de controlar y  
restringir tanto el desarrollo como el uso de la IA?  
Que existan riesgos (¿dónde no los hay?) no quiere decir que los mismos invaliden o hayan  
de cercenar las posibilidades de una determinada tecnología. Por poner un ejemplo muy  
básico, también tienen riesgos de accidentes los coches, los trenes y los aviones, pero todos  
hemos llegado a la conclusión de que hemos de convivir con ellos, tratando de mitigarlos  
en la medida de lo posible, en vez de renunciar a las enormes ventajas que nos aportan los  
citados medios de transporte. Lo mismo podríamos decir de los medicamentos en general,  
las vacunas, o de cualquiera de los desarrollos tecnológicos con los que nos hemos acos-  
tumbrado a convivir y de los que disfrutamos cada día.  
Renunciar al uso de la IA por miedo a los riesgos éticos que la misma pueda conllevar re-  
sultaría un enorme freno para nuestra productividad y competitividad frente a otras eco-  
nomías, además de evitarnos la posibilidad de disfrutar de su enorme capacidad de proce-  
so de datos para la toma de decisiones personales y para descargarnos de tareas tediosas,  
repetitivas y de escaso valor añadido.  
La Recientemente LanzaDa noRmatiVa De La ue  
La UE acaba de aprobar recientemente (se aprobó por amplia mayoría en el Parlamento  
11  
Europeo el 13 de marzo de 2024 ) una nueva normativa sobre la IA, precisamente con un  
enfoque que busca aprovechar las enormes ventajas que nos puede aportar la IA tratando  
de mitigar los riesgos éticos asociados:  
El enfoque de la UE con respecto a la inteligencia artificial se centra en la excelencia y la confianza,  
con el objetivo de impulsar la investigación y la capacidad industrial, garantizando al mismo  
11  
Recomendamos el artículo de Carles Planas sobre la aprobación de la ley europea sobre IA publicado en El Periódico (2024).  
1
Revista de ciencia de la Complejidad  
tiempo la seguridad y los derechos fundamentales (Comisión Europea, 2024).  
Esta nueva normativa clasifica en tres grandes grupos los riesgos asociados al desarrollo y  
empleo de la IA:  
La Ley de la IA es una propuesta de reglamento europeo sobre inteligencia artificial (IA), la  
primera normativa exhaustiva sobre IA de un regulador importante en cualquier lugar. La Ley  
clasifica las aplicaciones de IA en tres categorías de riesgo.  
En primer lugar, se prohíben las aplicaciones y sistemas que supongan un riesgo inaceptable,  
como los sistemas de puntuación social administrados por el gobierno, como los que se utilizan  
en China.  
En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que  
clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos.  
Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto  
riesgo quedan en gran medida sin regular (Unión Europea, 2024).  
La implantación de la nueva ley será progresiva entre su reciente aprobación y 2026, pero  
ha generado una fuerte expectación sobre:  
Su capacidad para garantizar la transparencia en lo relativo al desarrollo y uso de la  
IA, evitando posibles sesgos discriminatorios por motivos de género, raciales, étnicos,  
económicos, políticos…  
El impacto negativo que puede tener como freno a la competitividad de las empresas  
europeas frente a otras economías menos garantistas en lo relativo al control de la IA  
(
como, de alguna manera, ya sucedió con EEUU o China y la normativa europea de pro-  
tección de datos, mucho más restrictiva que las de estos países con el fin de garantizar  
los derechos de la ciudadanía).  
6
. ConClusión: EnsanCHar El HorizontE inCorporando las  
difErEntEs CosmotÉCniCas dE las divErsas Culturas  
Humanas  
Pero quizá la solución regulatoria se quede demasiado corta y no alcance el fondo de la  
cuestión. Ya hemos mencionado más arriba el planteamiento de Yuk Hui al considerar que  
la imposición de marcos éticos al desarrollo tecnológico siempre llega tarde y está ahí úni-  
camente para ser transgredido. Esto se debe a que es una solución típicamente occidental,  
con una noción de tecnología únicamente instrumental y, por tanto, plenamente autóno-  
ma de lo moral pero, dadas las consecuencias que el desarrollo de la tecnología puede te-  
ner en la vida humana (como ocurre con la IA), hay que intentar someterla a otro ámbi-  
to igualmente autónomo, el de lo moral, pero que nos interesaría poner por encima del  
tecnológico. Sin embargo, en el marco epistemológico del pensamiento occidental ambos  
1
3
Revista de ciencia de la Complejidad  
permanecen completamente heterogéneos y, por esa compartimentación de la realidad,  
su articulación siempre es difícil y con una gran dosis de artificiosidad. Sin embargo, otras  
cosmotécnicas integran estos diferentes ámbitos de un modo mucho más armónico, abar-  
cando diferentes relaciones con lo no-humano y el cosmos en general en un marco más  
omniabarcante de sentido global de toda la realidad.  
Sin negar la urgencia de una regulación de la IA, la verdadera solución pasaría, más bien,  
por disgregar la hegemonía y unicidad de la noción occidental de tecnología, situando el  
problema bajo la mirada de esa caleidoscópica multiplicidad de cosmotécnicas presentes  
en la pluralidad cultural de nuestro mundo. Ejemplificando su propuesta, en “Sobre el lí-  
mite de la inteligencia artificial” (2020, pp. 163-191) Hui intenta situar el desarrollo de la  
IA en el marco del pensamiento chino, en contraste con el pensamiento occidental. Ana-  
lizando la interacción de la intelección humana con la realidad material, Hui encuentra  
que el pensamiento occidental, tomando a Kant como su paradigma, no puede superar el  
plano de los fenómenos, siendo imposible una intuición intelectual en la que lo noumé-  
nico, la realidad en sí, fuera realmente conocido. Sin embargo, en el pensamiento chino  
ocupa un lugar preeminente el cultivo de una intuición intelectual capaz de penetrar más  
allá de los fenómenos e integrar lo fenoménico y lo nouménico. En este pensamiento chi-  
no, no se trata de una facultad innata y universal en su estructura fundamental, sino una  
capacidad (no es algo meramente adquirido, sino que nos distingue frente a los animales)  
que hay que cultivar (la capacidad con la que nacemos debe evolucionar y llegar a ser tal  
que sea capaz de producir esa intuición intelectual que pueda unificar lo fenoménico y lo  
nouménico). Esta intuición intelectual es una razón sintética que no contempla en mundo  
descomponiéndolo analíticamente, como ocurre en la razón occidental, sino que, cuando  
contempla el mundo, ve que todas las cosas están interconectadas, llegando a una intelec-  
ción sintética que persigue la unificación de los órdenes cósmico y moral.  
Pero estas dos cosmotécnicas son sólo una pequeña muestra de las correspondientes a  
tantas y tantas culturas en las que se ha ido desplegando el ser humano a lo largo de la his-  
toria. Es preciso desarrollar una tecnodiversidad que incorpore todas esas cosmotécnicas  
para tener una experiencia de la tecnología que supere la reduccionista visión occiden-  
tal. Si así lo hacemos, quizá lleguemos a la conclusión de que el gran desafío de la IA no  
es construir una superinteligencia, sino hacer posible una verdadera noodiversidad, una  
convivencia de epistemes y racionalidades diferentes. Pero, para empezar a transitar ese  
camino, es imprescindible que nos atrevamos a experimentar de esa manera en el arte y  
la tecnología del futuro, y ese es un camino que apenas hemos empezado. Para poder aco-  
meter el reto de semejantes experimentos necesitamos nuevas disciplinas y nuevas insti-  
tuciones que articulen adecuadamente y armónicamente el estudio del arte, la tecnología  
y la filosofía, aunque todavía carecemos de tales disciplinas e instituciones.  
1ꢃ  
RefeRencias  
Barata, J. (11 de abril de 2021). ¿Quién debe  
poner orden en la Red? El País. https://elpais.  
com/ideas/2021-04-11/quien-debe-poner-  
orden-en-la-red.html/  
• Peirano, M. (14 de noviembre de 2020). Cin-  
co propuestas radicales para las redes. El  
País. https://elpais.com/ideas/2020-11-14/  
cinco-propuestas-radicales-para-las-redes.  
html/  
Benanti, P. (2018a). Oracoli. Tra algoretica e  
algocrazia. Luca Sossella Editore.  
• Planes Bou, Carles (13 de marzo de 2024). El  
Parlamento Europeo aprueba definitivamen-  
te la ley que regulará la inteligencia artificial.  
El Periódico. https://www.elperiodico.com/  
es/internacional/20240313/europa-par-  
lamento-europeo-aprueba-ley-inteligen-  
cia-artificial-regulacion-ia-chatgpt-bruse-  
las-union-europea-99388849/  
Benanti, P. (2018b), Le macchine sapienti.  
Intelligenze artificiali e decisioni umane. Ma-  
rietti 1820.  
Benanti, P. (21 de enero de 2021). AI e algo-  
ritmi: decisione storica di FTC. Paolo Benan-  
ti. Etica, bioetica, tecnología. https://www.  
paolobenanti.com/post/ai-e-algoritmi-deci-  
sione-storica-di-ftc/  
Scaliter, J. (10 de marzo de 2024). Prime-  
ra condena por crear contenido explícito  
con IA. La Razón. https://www.larazon.es/  
tecnologia/primera-condena-crear-con-  
tenido-explicito_2024031065edfbc-  
Comisión Europea. Ley de IA. https://digi-  
tal-strategy.ec.europa.eu/es/policies/regu-  
latory-framework-ai  
5
dac83100010c4f25.html/  
González Pascual, M. (17 de abril de  
2
024). Lavender, la inteligencia artificial  
• Unión Europea. La Ley de Inteligencia Artifi-  
cial de la UE. Evolución y análisis actualiza-  
dos de la Ley de AI de la UE. https://artificia-  
lintelligenceact.eu/es/  
de Israel que decide a quién se bombar-  
dea en Gaza. El País. https://elpais.com/  
tecnologia/2024-04-17/lavender-la-in-  
teligencia-artificial-de-israel-que-deci-  
de-a-quien-se-bombardea-en-gaza.html/  
Harari, Y. N. (2017). Homo Deus. Breve histo-  
ria del mañana. Debate.  
Hernández Velasco, I. (2 de marzo de 2023),  
Los dobladores italianos ya se han cansado  
de la inteligencia artificial y van a la huelga.  
El Confidencial. https://www.elconfidencial.  
com/cultura/2023-03-02/dobladores-italia-  
nos-huelga-chatbot_3585744/  
Hui, Y. (2020). Fragmentar el futuro. Ensayos  
sobre tecnodiversidad. Caja Negra Editora.  
1
5