Solo un mes después de firmar una carta en la que más de mil personalidades pedían que se apagara ChatGPT, por considerar que supone riesgos para la humanidad, el fundador de Tesla, Elon Musk, anunció que lanzará su propio servicio de inteligencia artificial para hacer competencia al chatbot desarrollado por Open IA.
La carta, firmada también por Steve Wozniak, cofundador de Apple, podría estar motivada por intereses comerciales y personales. Jesús Savage, académico de la Facultad de Ingeniería, señala que hay que preguntar por qué lo pidieron y qué riesgos representa para quienes firmaron esa petición.
Por su lado, Luis Pineda Cortés, del departamento de Ciencias de Computación y experto en inteligencia artificial, señala que “siempre existe el riesgo de que los contenidos se utilicen de manera dolosa, con fines no éticos o motivados por intereses particulares, ya sean económicos o políticos. Tenemos que estar al tanto de ese riesgo potencial”.
Pineda Cortés, investigador del Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas, señala que “no hay que tener miedo de estas tecnologías, pero sí hay que tener conciencia de su impacto. Se requiere que la sociedad aprenda a utilizarlas, pero en sí no veo que haya por qué tenerles miedo. El reto que están poniendo estas herramientas, ya presentes desde hace mucho tiempo, ahora se presenta de una forma diferente y sofisticada”.
El experto señala que “ChatGPT es una herramienta, digamos, superficial, que básicamente lo que hace es establecer relaciones estadísticas entre los textos que puede analizar y predice el texto más probable. Dependiendo del texto que se dé es la respuesta, con base a las correlaciones que tiene programadas anteriormente. Lo que no es tan claro para mucha gente es que las respuestas que da ChatGPT no es una sola, sino muchas y después hay un procesamiento que elige la respuesta más accesible a los seres humanos. Aparte lo ordena con una estructura retórica bastante rígida. Lo que produce en su primera etapa es cuáles son las probabilidades de que ocurra una palabra entre todo el lenguaje, partiendo de las palabras del texto de entrada para todas las palabras”.
¿Hay peligro de perder los empleos?
Perder el trabajo porque una máquina pueda reemplazarnos es una inquietud de mucha gente ante la tecnología. Desde que se masificó ChatGPT, en redes sociales y en medios, una de las grandes preguntas ha sido si esta herramienta nos dejará sin empleo.
Ante esta situación Pineda señala que sí hay riesgos. Sin embargo, se requieren personas más activas para poder capitalizar sus fortalezas y para prevenir o disminuir los riesgos. “Entonces por eso la carta, me parece, es por cuestiones protagónicas, incluso quien pide el paro total, y de mucha gente pensando que va a perder su empleo por ChatGPT. La tecnología hace que cambien las formas laborales. La preocupación de la gente se puede resolver con una pregunta: ¿Qué tan automatizable es lo que haces, o qué tan humano es? Esa inquietud existe desde los telares, por ejemplo, no es reciente, y mientras más automatizada sea tu actividad, entre más inhumana, por así decirlo, es más fácil de sustituir”.
Pineda Cortés añade sobre este punto: “Es como si fueras un robot ocho horas de tu vida, así que la automatización en esa forma es muy buena porque permite que las labores las realicen máquinas en vez de seres humanos y que los seres humanos puedan tener una vida más humana. Claro que está el reto económico para que la gente pueda realizar su humanidad y también está el reto de que la gente se haga más humana para poder abordar labores más humanas”.
Para quienes temen perder el empleo, la reflexión es, concluye Pineda, “¿qué tanto de tu actividad realmente es reemplazable?, ¿qué tanto eres humano en tus horas laborales? Con eso, la mayoría de la gente se puede responder. Si quieren ser más humanos, entonces que las máquinas hagan el trabajo y hay que ocuparse de enriquecerse como persona para que la actividad profesional, social sea en general más humana”.
Redacción Voz Libre con información de gaceta.unam.mx