Tecnología Responsable

  • Sin Comentarios
  • 1578
  • 0
Tecnología Responsable

Bien se ha dicho muchas veces que la tecnología no es buena ni mala. Depende del uso que le dé una persona a las cosas. Por ejemplo, el Internet puede usarse para todo, desde la educación a distancia, hasta para jugarle bromas pesadas a la gente y molestar a otros de manera anónima.

Esto lo deben de tener en mente aquellos visionarios que se encargan de desarrollar nuevas facilidades tecnológicas. Claro que ellos no son los responsables directos del uso que hagan de sus inventos. Sin embargo, las consecuencias que surjan de un diseño hecho con poco cuidado, sí recaen sobre sus creadores.

Un ejemplo de esto es la carta abierta que hace unos meses publicaron varios expertos de ciencia y tecnología. Entre los 1,000 firmantes, The Guardian reporta que se encuentran:

  • El físico, Stephan Hawking
  • El empresario, Elon Musk
  • El cofundador de Apple, Steve Wozniak
  • El presidente ejecutivo de Google DeepMind, Demis Hassabis

En ella, advierten de los peligros de desarrollar inteligencia artificial (IA) dedicada a la guerra. En general advierten sobre los riesgos la falta de previsión. El riesgo que ellos ven en este campo de investigación y desarrollo, es todo lo que puede salir mal en caso de que no se establezcan parámetros y límites sumamente detallados.

El escenario que puede resultar no es tan espectacular como la película Terminator. Sin embargo es igual de riesgoso para la vida en la Tierra, no sólo para los seres humanos.

¿Qué tan malo?

Un ejemplo hipotético es el siguiente. Se desarrolla una inteligencia artificial. Se le dicta la tarea de producir neumáticos de la forma más eficiente que le sea posible. Dicha IA comienza a fabricarlos con las herramientas y materiales que le dan. Sin embargo, como parte del esquema de una IA es aprender, comenzará a desarrollar formas más eficientes.

En poco tiempo podría construir nuevas máquinas con la misma tarea. Asimismo empezaría a destruir áreas residenciales para obtener nuevos materiales. Después de todo, se le dio una tarea y la está cumpliendo. No hay una intención dañina, sólo se programó incorrectamente. Eventualmente llenaría el planeta de neumáticos y seguiría haciéndolo aunque no hubiese nada más en la Tierra.

Suena ridículo, pero es una ilustración de la lógica que puede seguir una máquina que aprende por sí misma a realizar una tarea. Si se le indica que “no dañe humanos”, podría optar por no hacer sus funciones, ya que se percataría de que contamina el planeta y así les causa daño. Se volvería un pisapapeles muy caro.

¿Cómo hacer bien las cosas?

Quizás nunca podamos hacerlo bien con una IA. Finalmente si tiene inteligencia verdadera, pensaría de forma distinta a los humanos. No obstante, las máquinas autónomas que sí están bajo nuestro control se pueden diseñar responsablemente.

Un ejemplo es la declaración reciente de Volvo. En ella, la compañía automotriz dijo que se hará responsable completamente por los accidentes que sucedan con sus autos que se manejan por sí mismos, es decir, sin chofer, según reportó International Business Times. Esto siempre que sea debido a un mal diseño. Aseguraron que es una certeza que habrá algún tipo de accidentes, a diferencia de lo que algunos entusiastas declaran.

Asumir responsabilidades en el desarrollo tecnológico también ayuda a su regularización y legalidad según la BBC. Cuando hay áreas grises, los procesos para autorizar el uso y comercialización de una tecnología, se vuelven muy tediosos. Sin embargo cuando esto se esclarece, es menos el tiempo que transcurre para que todos podamos disfrutar de estos beneficios.

Redacción Círculo Marketing

Comentarios

Deja un Comentario

Tu Comentario (Requerido)

Nombre (Requerido)

Email (Requerido)

Website

Mostrar botones
Ocultar botones