Lo artificial en la inteligencia

|

|

El nuevo “El Dorado de la ciencia”, la Inteligencia Artificial (IA), involucra disciplinas antes poco vinculadas (matemáticas, física, informática, biología, medicina, sociología). Y también es la vedette periodística, poco conocida por la sociedad, arrastrada al límite entre la ciencia y la fantasía.(6, 9, 15, 22, 26, 31, 34) Sobre eso versa el siguiente artículo parcialmente publicado como editorial en la Revista CIES de Colombia.

Una combinatoria de disciplinas que resulta en una gran capacidad digital, automatismo y velocidad para tomar decisiones no humanas. Aunque se describe como un sistema de autoaprendizaje, aún no hay explicación para muchas decisiones que toman las máquinas fuera del control humano. Y, lejos de teorías conspirativas, aunque la IA es eficiente para el control de mercaderías, tránsito ciudadano o líneas de producción, no es lo mismo que controlar información personal confidencial o la seguridad individual, familiar, nacional y planetaria.(3, 28, 29, 30)

Asociada al Big Data, la IA también tiene enorme poder para obtener información e inducir conductas. Se sabe que menos de 100 likes permiten predecir el color de piel, la orientación sexual y la opinión política del usuario. Según se dice, explicó cómo ganaron elecciones algunos presidentes.(1, 32)

Cercana a la ciencia-ficción,(4, 18) la idea de IA como “máquinas que aprenden de máquinas” sin equilibrar valores científicos y éticos, es sin duda un mecanismo que persuade a los poderes reales del planeta. Así, al aceptar la IA en el control social, sería demencial desconocer su potencial para incentivar la meta de máximas ganancias a expensas del interés público, los derechos humanos y la soberanía en cualquiera de sus categorías.(7, 8, 12, 23, 24, 30)

Las capacidades non sanctas de la IA
Todavía joven, la IA mueve cifras multimillonarias en biomedicina, seguridad, informática, vigilancia y medios de comunicación, combinados entre sí y esperando suculentos dividendos sin regulación ética. Su impacto sobre los ciudadanos son objeto de críticas, pero se avanza sobre lo realizado sin control social.(3, 7, 12)

Algunos investigadores se preguntaron: “¿Qué pasaría si a un sistema de IA, se le propone detectar armas químicas?”. (7, 12) ¡Y ya lo hicieron! En una institución científica suiza, “instruyeron” al sistema para pesquisar neurotóxicos y proponer moléculas similares. Al cabo de pocas horas, el resultado horrorizó a los científicos. La pantalla de sus monitores mostró más de 40 mil compuestos tanto o más tóxicos que la molécula modelo y, al reconocer haber cruzado un límite ético, sus autores manifestaron: “poder borrar las miles de moléculas que pudieran crearse, aunque sin poder borrar el conocimiento de cómo  recrearlas”. (35) Una pregunta (nuestra): ¿las habrán borrado?

Otras recientes noticias cubren el planeta: un sistema de IA (ChatGPT y sus derivados), puede escribir “a pedido”, informes científicos o papers.(10, 11, 13, 15, 19, 28, 29, 30, 34) Aparte de proyectos o hipótesis de trabajo, puede “fabricar” resultados de supuestas investigaciones inexistentes. Fraude científico comprobado en publicaciones de prestigiosos jounals, al colocar el nombre del sistema como coautor del trabajo y sin que su intervención pudiera ser advertido por los revisores humanos.(1, 3, 10, 11, 13, 15, 19, 28, 29) El mismo sistema casi logró “graduarse de médico” en el Examen de Licencia Médica de Estados Unidos, al obtener 52% y 75% de respuestas correctas, sobre el umbral de aprobación de 60%.(16, 21, 25, 33)

¿Una revolución en ciencias y en educación superior?
Para el público general, la IA podría parecer casi un divertimento. Pero puede ser catastrófico para la ciencia y la sociedad, desde que la publicación es la base del sistema científico-tecnológico, al exponer datos que son corroborados o no por otros científicos, convirtiéndose así en los controladores sociales de la ciencia y de sus aplicaciones. (18, 23, 24)

En una encuesta de la revista científica Nature, se preguntó a miles de lectores: “¿Se debe permitir a los investigadores usar ChatGPT para escribir artículos?”. Las respuestas fueron: No = 58%, Sí = 37% y Otros = 5%.(14) Y una temprana iniciativa de la prestigiosa universidad de ciencias sociales, el Instituto de Estudios Políticos de París (Sciences Po), prohibió su uso por la posibilidad de fraude y plagio.(17) Y la Unión Europea acaba de aprobar un proyecto de ley para regular la IA, pero que se aplicaría recién desde 2026.(18)

No obstante, muchos científicos o instituciones de educación superior, reflejan el temor de ser censurados como “antimodernos” si se oponen a este tipo de tecnologías.(22)  Y cuando la University World News preguntó al propio programa ChatGPT sobre su impacto en la educación superior, la respuesta explayó eufemismos sobre participación, interacción, accesibilidad, eficiencia, etcétera, ya que “la relación entre los humanos y la IA no es una competencia, sino una asociación, y el impacto dependerá de cómo se la use”.(14, 34) Lo mismo que la energía atómica, ¿no?

Curiosamente, o no tanto, el ChatGPT es un producto de OpenAI ‒un empresa de Elon Musk‒, disponible gratis o pagando pocos dólares por mes, habiendo superado centenares de millones de usuarios mensuales. Y esto no es banal, ya que existen preocupaciones serias en el área académica. Recientes opiniones de editores y expertos en diferentes disciplinas, consultados sobre este punto, respondieron que “…la IA no puede sustituir al hecho de tener algo que decir”.(3, 20) Una respuesta quizás vaga y poco comprometida.

Luego de contrapesar pros y contras de la IA en la comunicación científica, se concluyó que sus resultados suelen sorprender por sus inexactitudes, aunque pueden ser convincentes y facilitar la desinformación. Así como son herramientas útiles, se deben concientizar los riesgos, y considerar que “…la interacción dialógica regular y duradera, de preferencia cara a cara, sigue siendo la forma más efectiva de una comunicación basada en la confianza”, “…ya que es una situación en la que las intervenciones tecnológicas pueden hacer más daño que bien”.(2, 4, 5, 20) Mientras tanto, importantes organismos educativos y sanitarios propusieron suspender, no sólo la tecnología de IA, sino la interacción con la tecnología digital (teléfonos, tablets, etc.) en guarderías y todos los niveles de escolaridad primaria.(27)

¿Y qué pasa en el mundo inteligente?
Expertos informáticos sostienen que la IA es “una forma de programar”, y “…depende de la base de datos de los programas de entrenamiento”. “Las máquinas no hacen nada sin una persona detrás que diga lo que tiene que hacer y cómo hacerlo”, “…por lo que debería preocupar más el factor humano que la IA”, ya que “…estos sistemas se diseñan para generar respuestas adaptadas al interlocutor”. Así, el sistema LaMBA (de Google), fue reconocido por el pastor evangélico Blake Lemoine como “ser sintiente desde que pudo mantener conversaciones sobre religión, emociones y miedos”, sin percatarse que ese sistema fue diseñado para generar respuestas agradables al interlocutor y pueden crear espejismos de personas, donde sólo hay máquinas.(36) Además, los sistemas de IA son cajas negras, cuya intimidad nadie conoce excepto sus creadores y dueños, amparados por patentes y acuerdos de propiedad intelectual.(4, 23, 24)

Enormes empresas y servicios de inteligencia del Norte Global concentran el desarrollo y aplicación de la IA. ¿Qué alternativa queda para los países del Sur? Un tema que no es ajeno a la ciencia, que rechaza una ciencia neutra y apolítica, y que exige una mayor responsabilidad social del científico. Al parafrasear la frase final de un inteligente y reciente artículo, se podría decir que “para estar a la altura de este ideal (y sobrevivir), la integridad de la investigación, la gestión de riesgos y el valor genuino del liderazgo del pensamiento humano deben ser la nueva prioridad”.(3)

Referencias
1) Alconada Mon, H. (2019, Sep 20). Cambridge Analytica hizo trabajos para el Pro antes de la campaña de 2015. Diario La Nación, Buenos Aires. https://www.lanacion.com.ar/politica/cambridge-analytica-hizo-trabajos-pro-antes-campana-nid2289827/.
2) Alvarez, A. Caliskan, A, M. J. Crockett, M.J., et al. (2024, Mar 4). Science communication with generative AI. Nat Hum Behav. (2024). https://www.nature.com/articles/s41562-024-01846-3.
3) Bagenal, J. (2024). Generative artificial intelligence and scientific publishing: urgent questions, difficult answers. www.thelancet.com Published online March 6, 2024 https://doi.org/10.1016/S0140-6736(24)00416-1.
4) Berreby, D. (2024, Feb 21). Scientists are putting ChatGPT brains inside robot bodies. What could possibly go wrong? Scient Amer. https://www.scientificamerican.com/article/scientists-are-putting-chatgpt-brains-inside-robot-bodies-what-could-possibly-go-wrong/.
5) Biyela, S., Dihal, K., Ilonka, K. et al. (2024). Generative AI and science communication in the physical sciences. Nature Reviews Physics. https://doi.org/10.1038/s42254-024-00691-7.
6) Burch S. (2017, Jul 5). Inteligencia artificial: ¿la nueva dependencia? América Latina en Movimiento. 525. https://www.alainet.org/es/articulo/186610.
7) Callaway, E. (2024, Mar 8). Could AI-designed proteins be weaponized? Nature News. https://www.nature.com/articles/d41586-024-00699-0.
8) Carter, S.R., Curtis, S., Emerson, C. et al. (2024, March 8). Community Values, Guiding Principles, and Commitments for the Responsible Development of AI for Protein Design. https://responsiblebiodesign.ai.
9) Castelvecchi, D. (2023, Feb 17). How will AI change mathematics? Rise of chatbots highlights discussion. Nature 615: 15-16. https://doi.org/10.1038/d41586-023-00487-2.
10) ChatGpt & Zhavoronkov, A. (2022). Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective. Oncoscience 9: 82-84.
11) ChatGpt, Thunström, A.O. & Steingrimsson, S. (2022). Can GPT-3 write an academic paper on itself, with minimal human input? (Preprint). ffhal-03701250f; https://hal.science/hal-03701250v1/document; HAL Id: hal-03701250 https://hal.science/hal-03701250 
12) Dybul, M. (2023, Jul). Biosecurity in the Age of AI. Helena at The Rockefeller Foundation’s Bellagio Center. https://www.helenabiosecurity.org.
13) Else, H. (2023). Abstracts written by ChatGPT fool scientists. Nature 613: 423.
14) Hoffman, R. (2023, Jan 23). The human-AI partnership. Greymatter. https://greylock.com/greymatter/the-human-ai-partnership/?utm_source=Nature+Briefing&utm_campaign=08590f08b2-briefing-dy-20230124&utm_medium=email&utm_term=0_c9dfd39373-08590f08b2-45355558.
15) Hutson, M. (2022). Could AI help you to write your next paper? Nature 611: 192-193.
16) Kung, T.H., Cheatham, M., Medenilla, A. et al. (2023). Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health 2(2): e0000198. https://doi.org/10.1371.journal.pdig.0000198.
17) MacGregor, K. (2023, Feb 3). – University World News. Sciences Po bans ChatGPT amid HE quality, integrity fears. https://www.universityworldnews.com/post.php?story=20230203074335557.
18) MacGregor,K. (2024, Jan 28). Generative AI action hints at core future roles in universities. https://www.universityworldnews.com/post.php?story=2024012705101220.
19) Májovský, M, Černý, M., Kasal, M, et al. (2023). Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened. J Med Internet Res 25: c46924. https://www.jmir.org/2023/1/e46924/
20) Nature: Editorial. (2024, Mar 7). AI is no substitute for having something to say. Nature Reviews Physics 6: 151. https://doi.org/10.1038/s42254-024-00713-4.
21) O’Connor, S. & ChatGPT. (2023). Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Educ Pract 66: January, 103537. https://doi.org/10.1016/j.nepr.2022.103537.
22) Owens, B. (2023, 20 Feb). How Nature readers are using ChatGPT. https://www.nature.com/articles/d41586-023-00500-8.
23) Rovasio, R.A. (2020). Ciencia y Tecnología en tiempos difíciles: De la “ciencia pura” a la “ciencia neoliberal”. Editoriales de la Universidad Nacional de Córdoba y Universidad Nacional de Villa María. Argentina. 452 pp.
24) Rovasio, R.A. (2024, en prensa). La Ciencia en la etapa Post-Neoliberal: ¿Superación o condena? Editorial Brujas. 440 pp. Córdoba. Argentina.
25) RT Noticias (2023, Feb 12). ChatGPT casi aprueba el examen para ejercer como médico en EE.UU. https://actualidad.rt.com/actualidad/457934-chatgpt-aprueba-examen-licencia-medica-eeuu.
26) Schwalbe, N. & Wahl, B. (2020). Artificial intelligence and the future of global health. (Review). The Lancet 395: 1579-1586.
27) Sociedad para la Educación y el Conocimiento. (2023, Dic 10). Científicos piden suspensión de digitalización en guarderías y escuelas. Pressenza. https://www.pressenza.com/es/2023/12/cientificos-piden-suspension-de-digitalizacion-en-guarderias-y-escuelas/.
28) Stokel-Walker, C. (2022, Dec 9). AI bot ChatGPT writes smart essays — should professors worry? Nature News https://www.nature.com/articles/d41586-022-04397-7.
29) Stokel-Walker, C. (2023). ChatGPT listed as author on research papers. Nature 613: 620-621.
30) Stokel-Walker, C. (2023, Feb 13). AI chatbots are coming to search engines – can you trust the results? Nature News https://www.nature.com/articles/d41586-023-00423-4 
31) The Lancet: Editorial. (2017). Artificial intelligence in health care: within touching distance. The Lancet 390: 2739.
32) Tufekci, Z. (2018). Facebook’s Surveillance Machine. The New York Times, March 19, 2018. https://www.nytimes.com/2018/03/19/opinion/facebook-cambridge-analytica.html.
33) United States Medical Licensing Examination (USMLE). (2023, 10 Feb). USMLE Program discusses ChatGPT. https://www.usmle.org/usmle-program-discusses-chatgpt.
34) University World News. (2023-2024). Special Report: AI and Higher Education. https://www.universityworldnews.com/page.php?page=AI_and_Higher_Education_Special_Report.
35) Urbina, F.et al. (2022, Mar 07). Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence. https://doi.org/10.1038/s42256-022-00465-9.
36) Wertheimer, T. (2022, Jul 23). BBC News: Blake Lemoine: Google despide al ingeniero que aseguró que un programa de inteligencia artificial cobró conciencia propia. https://www.bbc.com/mundo/noticias-62280846

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Warning: Undefined array key «align» in /var/www/html/wp-content/plugins/advanced-ads/modules/gutenberg/includes/class-gutenberg.php on line 231
Banner animado gif de José Hernández

Últimas noticias


Warning: Undefined array key «align» in /var/www/html/wp-content/plugins/advanced-ads/modules/gutenberg/includes/class-gutenberg.php on line 231

Categorías


Warning: Undefined array key «align» in /var/www/html/wp-content/plugins/advanced-ads/modules/gutenberg/includes/class-gutenberg.php on line 231

Archivos

Últimos Lanzamientos