Máquinas Confiar



Fool hu-manos, no hay escape!

The Wall Street Journal hizo un pedazo semana pasada en aviones no tripulados que deciden si se debe disparar a un objetivo, provocativamente titulado “¿Se puede confiar en un Ejército de Killer Robots?”

Aunque el título se va a la yugular de ciencia ficción, el artículo equilibra preguntas sobre la toma de decisiones robot con preocupaciones como las de director de Mobile Robot Lab Tecnología de Georgia Ronald Arkin:

Su trabajo ha sido motivado en gran parte por su preocupación por los fracasos de los que toman las decisiones humanas en el fragor de la batalla, especialmente en el ataque a objetivos que no son una amenaza. Los robots “no tendrá todas las capacidades de razonamiento moral de los seres humanos,” , explica, “pero creo que puede-y esta es una hipótesis-funcionar mejor que los seres humanos” [1]

En otras palabras: ¿Confiamos en un ejército de personas?

Drones podrían tomar mejores decisiones en algunos contextos. Si drones se puede confiar es una "cuestión completamente distinto.

Tal vez la confianza sólo puede ocurrir entre personas (como en este mensaje el “Una guía del sociólogo a la confianza y el diseño“). Si una relación de confianza se entenderá que incluye al riesgo por parte del fideicomitente, así como “la responsabilidad de la conducta y la voluntad de hacer bien las fallas” [2] en la parte de la confiado, a continuación, la colocación de un sitio web, robot, algoritmo o objeto en el lado síndico de esa relación plantea preguntas pegajosas sobre lo qué tipos de incertidumbre conllevan riesgos, y lo que significa ser responsable del comportamiento de una.

Pero, de nuevo… si creo que una persona es responsable de su comportamiento, y confiar en ellos, y luego descubren que no son responsables, ¿significa eso que yo nunca confiaba en ellos? Desde un punto de vista descriptivo, tal vez no importa tanto saber si una máquina puede ser responsable, pero si una persona cree que una máquina puede ser responsable, o dignos de confianza.

En una 2004 Panel de CHI en la interacción entre humanos y robots, panelistas discutieron los riesgos potenciales de las personas, tanto de confianza y no confiar en los robots (pero tal vez lo que se llama confianza aquí podría describirse mejor como tener un sentido de seguridad a partir de algunas perspectivas). Uno de los puntos que los panelistas volvieron a la necesidad que la gente entienda el comportamiento de los agentes no humanos — algo que se vuelve cada vez más difícil, ya que los algoritmos se vuelven menos predecible desde un punto de vista humano. La gente encuentra maneras creativas de utilizar un robot de bajo rendimiento cuando entienden sus limitaciones, pero o bien se niegan a usar un robot que no entienden, o permitir que un robot que no entienden que un mal desempeño.

Argumentando que “comprensión puede ser más importante que la confianza”, el panel sugirió:

El paradigma de la “supervisión humana” bien puede dar lugar a una prometedora, pero el futuro al mismo tiempo aterradora de “interacción con sus pares-to-peer” donde la autoridad se le da a cualquier miembro del equipo es el más apropiado, sean humanos o de la máquina” [3].

La mejor manera de entender que tipo de interacción?

Referencias:
[1] McKelvey, -. (2012, Mayo 19). ¿Se puede confiar en un Ejército de Killer Robots? Wall Street Journal.
[2] Shneiderman, B. (2000). El diseño de la confianza en las experiencias en línea. Comunicaciones de la ACM, 43(12), 57-59.
[3] Bruemmer, D., Pocos, D., Goodrich, M., Normando, D., Sarkar, N., Scholtz, J., Inteligente, B., y col. (2004). ¿Cómo confiar en robots aún más de lo que podemos tirar a la. CHI '04 extendió resúmenes sobre factores humanos en sistemas de computación, CHI EA '04 (pp. 1576-1577). Nueva York, Nueva York, EE.UU.: ACM. dos:10.1145/985921.986152

Algunas otras lecturas:
Crawl, La. (2012, Mayo 18). Tecnologías Militares están transformando la Antropología de la Violencia. Ciencia Voices. Obtenido de mayo 28, 2012, desde http://blogs.sciencemag.org/sciencevoices/2012/05/military-technologies-are-tran.html
Haimes, E. (2002). ¿Qué pueden hacer las ciencias sociales que contribuyan al estudio de la ética? Teorético, consideraciones empíricas y de fondo. Bioética, 16(2), 89-113.

Etiquetas: , , , , ,

Una respuesta a “Máquinas Confiar”

  1. Mayo 30, 2012 en 1:34 al #

    Pensamientos interesantes Rachelle – Son las preguntas en torno a la interacción humana / robot le está pidiendo más ampliamente o con frecuencia ahora en 2012 que en 2004, más allá del nivel del panel especialista que es?

    Dado el impacto potencial de tal poder tecnológico, y los niveles dudosos de apoyo que puedan generar entre la población, seguramente este tema debe ser considerado desde un punto de vista público mucho más amplio. Paul Virilio escribió poderosamente que las grandes decisiones éticas relacionadas con la IA, biotecnología, GM Food y similares sólo están actualmente siendo considerados en los pequeños paneles de ética inaccesibles a cargo de los científicos en lo profundo de los institutos de investigación, donde los técnicos a menudo superan en número a los filósofos, activistas u otras voces.

    Su punto acerca de la "comprensión’ se siente mucho más ideológico en ese contexto. Mediante la sustitución de la conciencia concreta de límites con una comprensión mucho más nebuloso '’ de intención, propósito o el mérito no se nos segregando la población expuesta a este tipo de tecnología en los que entienden que (los científicos / tecnólogos) y aquellos que no lo hacen.

    Ya hablamos de la brecha digital, una alienación tecnológica donde las generaciones de más edad están restringidas en el modo de su interacción social, en virtud de no ser capaz de entender cómo usar Twitter o Facebook. Parece que algo similar está ocurriendo en relación con el debate robot asesino.

    El debate sobre esta cuestión debe ser de una calidad superior, y discutido más ampliamente.

Deja un comentario para Terrapol