En Estados Unidos temen por el mal uso de ChatGPT y sus consecuencias.

214

La inteligencia artificial está en boca de todos por haberse introducido en la sociedad de un momento al otro. Si bien se estimaba un avance paulatino, lo sucedido con ChatGPT rompió con todo tipo de pronóstico. Incluso, muchos están en condiciones de afirmar que esta IA le causará un mal a la sociedad. Uno de los apocalípticos es Craig Martell, jefe de IA del Pentágono, quien manifestó temor y susto por el uso que las personas puedan darle a la tecnología de Open AI.

De acuerdo al medio Braking Defense, el jefe de IA del Pentágono brindó testimonio en una conferencia cibernética organizada por la Asociación de Electrónica y Comunicaciones de las Fuerzas Armadas. “No nos vendan solo la generación, trabajen también en la detección”, señaló Martell, con respecto a poder identificar la realidad dentro de los resultados que puede brindar el uso de ChatGPT.


El director de Inteligencia Digital y Artificial del Departamento de Defensa de Estados Unidos alertó sobre el uso que las personas le podrían dar a esta tecnología, mediante la simulación de avatares, la clonación de voz o la calidad similar a la fotográfica en las imágenes desarrollada por IA.

Pentágono advierte por el mal uso del ChatGPT
Todos creen en la autoridad de ChatGPT y sus resultados.
“Esta información desencadena una respuesta psicológica que lleva a pensar que esto tiene autoridad”, explicó Martell. En sintonía, dejó en claro que ChatGPT es una herramienta perfecta para la desinformación, por lo que es necesario contar con herramientas para poder detectar cuándo sucede esto y poder advertir en ese momento.

“Si le preguntás a ChatGPT: ‘¿Puedo confiar en vos?’, su respuesta data de un largo «no’» No bromeo. Dice que es una herramienta que va a darte una respuesta, pero que te corresponde a vos ir a verificarlo por vos mismo”, analizó el jefe de IA del Pentágono. Y para finalizar, dejó en claro que el temor por las autoridades es el uso de esta inteligencia artificial en manos inadecuadas.

MDTech