Por Eric Corrales |31 de julio de 2017, 16:37 PM

Un grupo de científicos que trabajan en un proyecto de inteligencia artificial se vieron obligados a desconectar a dos robots luego de que estos empezaron a desarrollar entre ellos su propio lenguaje.

El hecho se presentó hace unos días en el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, Estados Unidos, bajo un proyecto financiado por el gigante de Facebook donde se busca desarrollar máquinas capaces de aprender y desarrollar nuevas tácticas de negociación.

El proceso fue anulado por los expertos una vez que descubrieron que ambas máquinas habían desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero más apto y lógico para la tarea que debían desempeñar.

Según publicó el diario El Mundo, el lenguaje parece una corrupción del inglés –idioma con que originalmente se había programado la inteligencia artificial- pero eso sí, carente de todo sentido por la extraña repetición de pronombres y determinantes.

Los investigadores detectaron la falla, pero aunque en un principio no lo vieron tan anormal, posteriormente descubrieron que donde aparentemente había un desorden de palabras, se estaba formando una estructura lógica coherente que permitía a los robots comunicarse más fácil y con menor riesgo a equivocarse.

"No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural, y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea”, aseguró uno de los responsables en la publicación FastCo.

Ante casos como estos los expertos aseguran que lejos de ser una curiosidad es un tema muy lógico ya que es muy probable que las máquinas con inteligencia artificial logren desarrolla formas de comunicación propias que sean mucho más eficientes entre sí y alejadas del lenguaje humano con el que fueron programadas en un inicio.

Sin embargo el tema ha vuelto a abrir el debate entre los que consideran que una inteligencia artificial que exceda la inteligencia humana promedio puede llegar a ser muy peligrosa, principalmente porque no sabemos a ciencia cierta qué efectos negativos o positivos podría generar.

Y los que aseguran que un robot con inteligencia artificial no tiene la capacidad de hacer daño a los humanos simplemente porque en ellos no existe una mente humana capaz de pensar en lastimar, sino que solamente son capaces de perfeccionar y crear tareas para las que han sido asignadas, buscando siempre una forma simple y perfecta de desarrollarlas.

Justo esta misma semana Mark Zuckerberg, creador de Facebook, y Elon Musk, creador de Tesla y SpaceX, han mantenido una discusión sobre los peligros que podría tener el desarrollo de lo que se conoce como una inteligencia artificial “fuerte” (una inteligencia que iguale o exceda la capacidad de inteligencia del hombre).