La ética de la IA se intensifica para guiar cómo la IA para los niños debe diseñarse adecuadamente, lo que puede pasarse por alto, por ejemplo, en el rápido avance hacia los automóviles autónomos que se conducen solos

A menudo se dice que nuestros hijos son nuestro futuro.

Otro estribillo que se repite con frecuencia es que la Inteligencia Artificial (IA) es nuestro futuro.

¿Qué sucede cuando combinamos la IA y nuestros hijos?

Sin duda, esperaría que la notable combinación de IA y niños fuera algo bueno. Tal vez la IA pueda usarse como un medio para impulsar los sistemas educativos y de tutoría basados ​​en computadoras. Los niños aparentemente se beneficiarían de ese tipo de IA. Parece prudente. Tal vez la IA pueda incluirse en los juguetes modernos y permitir la interactividad que podría inspirar y expandir las mentes jóvenes. Claro, eso aparentemente le haría mucho bien al mundo.

La cuestión es que igualmente podríamos encontrarnos con el lado adusto de la IA. Supongamos que un sistema de tutoría basado en IA tuviera estereotipos incorporados y promulgara esos sesgos adversos al ayudar a los jóvenes que están aprendiendo a leer y escribir. No es bueno. Imagínese que un oso de peluche con inteligencia artificial infundida con sensores electrónicos pudiera registrar cada expresión de su hijo y cargarla en una base de datos en línea para su análisis, tal vez utilizada para encontrar formas de monetizar a su amada descendencia. ¡Horrible!

Necesitamos hacer un balance de dónde está la IA y qué debemos hacer con respecto a la IA y los niños.

Afortunadamente, un estudio publicado recientemente por el Foro Económico Mundial (WEF, por sus siglas en inglés) proporciona una visión profunda de la dinámica de la IA y los niños, afirmando claramente lo siguiente: “¿Qué está en juego? La IA determinará el futuro del juego, la infancia, la educación y las sociedades. Los niños y los jóvenes representan el futuro, por lo que se debe hacer todo lo posible para ayudarlos a usar la IA de manera responsable y abordar los desafíos del futuro” (según el Foro Económico Mundial). Inteligencia artificial para niños: kit de herramientas, marzo de 2022). Como nota al margen y para aclarar la divulgación, sirvo en un comité del Foro Económico Mundial sobre IA y creo que este tipo de esfuerzos colaborativos e internacionales que exploran varios impactos sociales relacionados con la IA son fructíferos y loables.

Un aspecto bastante llamativo y sorprendente de la prisa desordenada de hoy en día para diseñar e implementar IA es que parece que con frecuencia nos olvidamos de los niños. Eso es triste. Eso es peor que triste, es una socavación de todo un segmento de la sociedad. Me acuerdo de una venerada cita de Nelson Mandela: “No puede haber una revelación más aguda del alma de una sociedad que la forma en que trata a sus niños”.

Reflexionemos sobre dos formas esenciales en las que la IA y los niños pueden interactuar:

1. Mediante IA diseñada específicamente para niños

2. A través de IA que fue diseñada para adultos y que los niños podrían usar de todos modos

Tómese un momento para reflexionar sobriamente sobre esas dos facetas.

En primer lugar, si está desarrollando un sistema de inteligencia artificial destinado específicamente a ser utilizado por niños, parecería descaradamente obvio que el enfoque de su diseño debería estar centrado en los niños. Dicho esto, es impactante y enloquecedor cuántos esfuerzos de IA para niños hacen un pésimo trabajo al centrarse en los niños. La suposición habitual es que los niños son simplemente adultos incipientes y todo lo que necesita hacer es "simplificar" la IA en consecuencia. Ese es un enfoque totalmente falso y equivocado. Los niños son marcadamente diferentes a los adultos y la variación en los elementos cognitivos debe tenerse debidamente en cuenta para cualquier IA que se interrelacione con los niños y sus actividades.

En segundo lugar, para aquellos que están diseñando IA para uso relacionado con adultos, no pueden asumir sin pensar que ningún niño utilizará o entrará en contacto con el sistema de IA. Ese es un gran error. Probablemente existe una posibilidad considerable de que una persona que no es adulta acceda a la IA o confíe en ella. Un niño o un adolescente podría intentar fácilmente usar la IA o usar furtivamente el acceso de sus padres para su propia intrusión juvenil. Un sistema de IA que no tenga suficientes controles y equilibrios para lidiar con el potencial de los niños que lo usan indudablemente traerá a alguien a serios problemas, especialmente si el niño resulta dañado cognitivamente o posiblemente incluso físicamente.

Podría estar pensando que si un sistema de IA lastima o maltrata a un niño, es culpa de la IA y que la IA debería asumir la carga de la responsabilidad. Este es un pensamiento bastante absurdo en la era actual de la IA. Tenga en cuenta que hoy en día no hay IA que sea consciente. No tenemos IA sensible y no sabemos cuándo o si tendremos IA sensible. Decir que un sistema de IA es la parte responsable de los daños o el perpetrador responsable de un delito es falso en este momento. Para mi cobertura sobre la responsabilidad de las empresas y los desarrolladores de IA por delitos o fechorías de su IA, consulte el enlace aquí.

Desde una perspectiva de fondo acerca de asumir la responsabilidad de la IA que se descarrila, debe darse cuenta de que se necesita un pueblo para diseñar y desplegar la IA. Esto puede incluir a los líderes de la empresa que supervisaron que la IA se hiciera realidad. Hay equipos de desarrolladores de IA que fueron fundamentales en la formulación de la IA. También debe incluir aquellos que enviaron la IA y la pusieron a disposición para su uso. En general, muchos humanos deben rendir cuentas. La IA no puede ser y no será durante bastante tiempo, hasta que alguna vez o hasta que la IA alcance alguna variante de personalidad jurídica, que he analizado en el enlace aquí.

Volvamos a la idea crucial de que la IA dirigida a los adultos podría, sin embargo, acabar en manos de los niños.

Los desarrolladores de IA que omiten esa posibilidad tendrán un duro despertar cuando sean demandados o llevados a los tribunales. Simplemente encogerse de hombros y decir que no había pensado en ello no va a ganar mucha simpatía. Es cierto que es posible que deba ser un poco creativo en sus esfuerzos de diseño para imaginar lo que un niño podría hacer al entrar en contacto con la IA, pero eso es parte de lo que debe tener en cuenta un desarrollador de IA con una mentalidad adecuada. El estudio WEF lo deja bastante claro: “Las empresas deben tener en cuenta que los niños suelen utilizar productos de IA que no fueron diseñados específicamente para ellos. A veces es difícil predecir qué productos podrían usar más tarde los niños o los jóvenes. Como resultado, debe considerar cuidadosamente si los niños o jóvenes podrían ser usuarios de la tecnología que está desarrollando”.

Esto es lo que hago cuando diseño sistemas de IA. Considero la gama completa de posibilidades de uso:

a) IA utilizada por un solo adulto (a la vez)

b) IA utilizada por varios adultos al mismo tiempo

c) IA utilizada por un adulto acompañado de un niño

d) IA utilizada por un niño (solo uno a la vez) y sin adultos a la mano

e) IA utilizada por varios niños al mismo tiempo (sin adultos a la mano)

Identificaré algunos ejemplos del mundo real de esas posibilidades cuando discuta más adelante cómo la IA y los niños deberían ser una consideración antigua en la fabricación y el despliegue de autos autónomos autónomos. Aférrate a tu sombrero para esa evaluación interesante.

La IA que usan los adultos puede ser engañosa y hacer intentos sórdidos de engañar a los adultos. Aunque eso no debería estar sucediendo, tenemos que esperar que suceda. Los adultos deben estar alerta en todo momento cuando interactúan con los sistemas de IA. Lamento decirlo, ese es el precio de ser un adulto.

Probablemente no pensemos que los niños deberían estar en esa misma situación precaria. Esperar que los niños estén alerta y sospechen continuamente de la IA no es una noción presuntiva razonable. Los niños generalmente se clasifican como los llamados usuarios vulnerables cuando se trata de sistemas de IA. Los niños no tienen particularmente los medios cognitivos para estar atentos y saber cuándo la IA se está aprovechando de ellos (me atrevería a decir que los adultos luchan en estos asuntos y aparentemente asumiríamos que los niños serán aún más vulnerables, lo cual, a pesar de la posibilidad que a veces los niños son de hecho más atentos que los adultos, no podemos tomar eso como una regla inquebrantable).

Es posible que se pregunte por qué alguien pensaría que la IA podría hacer cosas malas. ¿No se supone que la IA es buena para nosotros? ¿No estamos anunciando la llegada de la IA contemporánea? Los titulares de los últimos informes de noticias y el estruendo de las redes sociales proclaman que debemos hacer sonar las trompetas para la llegada de cada nuevo sistema de IA que se anuncia sumariamente a diario.

Para responder a esas preguntas puntuales, permítanme un momento para mencionar un poco de la historia reciente sobre la IA de hoy y la importancia de la ética de la IA, y la marea creciente hacia la IA ética. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

Tomemos un momento para considerar brevemente algunos de los preceptos clave de la IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluso con metodologías, fuentes de datos y procedimientos de diseño y documentación transparentes y auditables.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

¿Cómo podemos aplicar los principios de ética de la IA en el contexto específico de la IA y los niños?

Pan comido.

Un aspecto especialmente sustantivo implica la admisión adecuada de a qué se dirige su IA en términos de los usos previstos. Esto es parte integrante de la regla de transparencia de la IA ética.

El estudio WEF ha propuesto que deberíamos etiquetar la IA de la misma manera que etiquetamos otros productos y servicios en nuestra sociedad. Vas a la tienda de comestibles y esperas poder mirar las latas de comida que tienen etiquetas que indican en qué consiste la comida. Cuando utiliza un drive-thru en un restaurante de comida rápida, muchos de ellos hoy en día muestran la composición de calorías y azúcar en la comida ofrecida. Todo tipo de artículos que compramos y consumimos están profusamente decorados con etiquetas informativas.

Hacer lo mismo con los sistemas de IA sería bastante útil.

Así describe el asunto el informe WEF: “El sistema de etiquetado de IA está diseñado para ser incluido en todos los productos de IA en su empaque físico y accesible en línea a través de un código QR. Al igual que la información nutricional en los envases de alimentos, el sistema de etiquetado pretende informar de manera concisa a los consumidores, incluidos los padres y tutores, así como a los niños y jóvenes, cómo funciona la IA y qué opciones están disponibles para los usuarios. Se alienta a todas las empresas a adoptar esta herramienta para ayudar a crear una mayor confianza y transparencia con los compradores y los niños usuarios de sus productos”.

Hay seis construcciones clave del etiquetado AI recomendado por WEF:

1) Años: Para qué edad están diseñados la tecnología y el contenido.

2) Accesibilidad: ¿Pueden usarlo los usuarios con diferentes habilidades y antecedentes?

3) Sensores: ¿Ve o escucha a un usuario con cámaras y micrófonos?

4) redes: ¿Pueden los usuarios jugar y hablar con otras personas cuando lo usan?

5) Uso de IA: ¿Cómo utiliza la IA para interactuar con los usuarios?

6) Uso de datos: ¿Recopila información personal?

Imagine que un padre o tutor podría inspeccionar dicha etiqueta para poder tomar una decisión razonada sobre si permitir que su hijo interactúe con la IA etiquetada. En lugar de que los padres o tutores estén completamente a oscuras sobre lo que es probable que haga la IA, tendrían una apariencia de lo que parece contener la IA. Para los padres y tutores cariñosos, esto sería muy apreciado y bienvenido.

Estoy seguro de que los escépticos entre ustedes tienen dudas sobre el etiquetado de IA.

Primero, el etiquetado de IA podría ser una mentira. La empresa o los desarrolladores pueden mentir en la etiqueta. En ese caso, el padre o tutor no está mejor y, de hecho, podría estar peor debido a que bajó la guardia debido a su creencia de que la etiqueta es verdadera y precisa. Sí, definitivamente es una posibilidad. Por supuesto, al igual que cualquier etiqueta, debe haber una máscara en el juego y un medio para perseguir a aquellos que distorsionan o mienten en las indicaciones de su etiqueta de IA.

Como he cubierto muchas veces, nos dirigimos hacia una gran cantidad de nuevas regulaciones y leyes que se ocuparán de la gobernanza de la IA. Esta es una conclusión inevitable. Hasta ahora, la sociedad prácticamente ha asumido que los promulgadores de IA poco éticos e ilegales harían justicia a través de medios convencionales de detección y aplicación. Dado que eso no ha sido del todo satisfactorio, y dado que la IA se está volviendo cada vez más omnipresente, puede esperar todo tipo de estipulaciones legales que se centren en la IA.

Además, uno esperaría que los mecanismos del mercado también entren en juego. Si una empresa que etiqueta falsamente su IA es atrapada in fraganti al hacerlo, se supone que las fuerzas del mercado la golpearán como un camión. La gente no comprará ni se suscribirá a AI. La reputación de la entidad se verá afectada. Aquellos que compraron o licenciaron la IA con falsos pretextos del etiquetado de la IA demandarán por representaciones falsas. Y así. He discutido la próxima ola de reacciones violentas de la sociedad sobre la IA poco ética en el enlace aquí.

Supongo que un escéptico ferviente tendría dudas adicionales sobre el etiquetado de IA.

Por ejemplo, de manera cínica, la afirmación podría ser que los padres y tutores no leerán las etiquetas de IA. Así como la mayoría de los adultos no leen las etiquetas de los envases de los alimentos ni las que se muestran en los menús de pedidos, probablemente supongamos que pocos padres o tutores se tomarán el tiempo de inspeccionar una etiqueta de IA.

Aunque reconozco que esto tiene que suceder, tratar de eliminar el valor de tener las etiquetas de IA solo sobre esta base es como tirar al bebé con el agua del baño (bueno, ese es un viejo adagio que tal vez deba retirarse). Algunas personas estudiarán cuidadosa y completamente las etiquetas de IA. Mientras tanto, algunas personas solo darán una mirada superficial. Por supuesto, habrá algunas personas que ignoren por completo las etiquetas de IA.

Pero debe tener las etiquetas para al menos asegurarse de que aquellos que las leerán puedan tener las etiquetas de IA disponibles. Además de eso, se puede argumentar estridentemente que la necesidad misma de tener una etiqueta de IA indudablemente hará que muchos fabricantes de IA sean más reflexivos sobre la naturaleza de su IA. Estoy sugiriendo que incluso si muy pocas personas leen la etiqueta de IA, la empresa debe tener en cuenta que al final serán responsables de lo que diga la etiqueta de IA. Con suerte, eso por sí solo impulsará a los desarrolladores de IA y a las empresas que crean IA a ser más respetuosas con la ética de la IA de lo que podría ser el caso.

Si desea debatir el esquema de etiquetado de IA propuesto, estoy atento a eso. Tal vez necesitamos más que los seis factores. Parece poco probable que necesitemos menos. Tal vez se necesite un componente de puntuación y ponderación. En general, aterrizar en el mejor enfoque de etiquetado de IA posible es una aspiración sensata y razonable. Evitar un esquema de etiquetado de IA o denunciar la existencia misma del etiquetado de IA aparentemente está fuera de lugar y no ayuda al uso cada vez mayor de IA que llegará a manos de nuestros hijos.

Bien, con ese último comentario, estoy seguro de que algunos sostendrán que el etiquetado de IA se está configurando como una especie de bala de plata. Nadie dijo eso. Es uno de los numerosos pasos e importantes medidas de protección que debemos emprender. Se necesita una cartera completa de enfoques de ética de la IA y ángulos de polinización cruzada.

En cuanto a la noción de cartera, aquellos de ustedes que estén familiarizados con los esfuerzos anteriores para analizar los impactos de la IA y los niños pueden recordar que UNICEF publicó un informe el año pasado que contenía algunos discernimientos muy valiosos sobre este tema en particular. en su Orientación de políticas sobre IA para niños estudio, una parte especialmente memorable delinea una lista de nueve requisitos y recomendaciones principales:

1. Apoyar el desarrollo y el bienestar de los niños ("Deja que la IA me ayude a desarrollar todo mi potencial")

2. Garantizar la inclusión de y para los niños ("Inclúyeme a mí y a los que me rodean")

3. Priorizar la equidad y la no discriminación para los niños ("La IA debe ser para todos los niños")

4. Proteger los datos y la privacidad de los niños ("Garantizar mi privacidad en un mundo de IA")

5. Garantizar la seguridad de los niños ("Necesito estar seguro en el mundo de la IA)

6. Proporcionar transparencia, explicabilidad y rendición de cuentas para los niños ("Necesito saber cómo me afecta la IA. Debes ser responsable de eso")

7. Capacitar a los gobiernos y las empresas con conocimientos sobre la IA y los derechos de los niños ("Debes saber cuáles son mis derechos y defenderlos")

8. Preparar a los niños para los desarrollos presentes y futuros en IA ("Si estoy bien preparado ahora, puedo contribuir a una IA responsable para el futuro")

9. Crear un entorno propicio ("Hacer posible que todos contribuyan a una IA centrada en los niños")

Esos son dignos de ser inscritos en un verdadero salón de la fama dedicado a la IA y los niños.

En este punto de esta importante discusión, apuesto a que está deseoso de algunos ejemplos adicionales que puedan mostrar las preocupaciones sobre la IA que utilizan los niños o para ellos. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre la IA que es utilizada por o para los niños y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos sin conductor e IA interactuando con niños

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de la IA ética que implican la exploración de la IA y los niños.

Imagine que un automóvil autónomo basado en IA está en marcha en las calles de su vecindario y parece conducir de manera segura. Al principio, habías prestado especial atención a cada vez que lograbas vislumbrar el automóvil autónomo. El vehículo autónomo se destacó con su conjunto de sensores electrónicos que incluían cámaras de video, unidades de radar, dispositivos LIDAR y similares. Después de muchas semanas de que el automóvil autónomo deambulara por su comunidad, ahora apenas lo nota. En lo que a usted respecta, es simplemente otro automóvil en las vías públicas ya ocupadas.

Para que no piense que es imposible o inverosímil familiarizarse con ver autos sin conductor, he escrito con frecuencia sobre cómo los lugares que están dentro del alcance de las pruebas de autos sin conductor se han acostumbrado gradualmente a ver los vehículos arreglados. ver mi análisis en este enlace aquí. Muchos de los lugareños finalmente pasaron de estar boquiabiertos a bostezar boquiabiertos a emitir un amplio bostezo de aburrimiento para presenciar esos serpenteantes autos sin conductor.

Probablemente, la razón principal en este momento por la que podrían notar los vehículos autónomos es el factor de irritación y exasperación. Los sistemas de conducción de IA de manual se aseguran de que los autos obedezcan todos los límites de velocidad y las reglas de la carretera. Para los conductores humanos agitados en sus autos tradicionales conducidos por humanos, a veces te molestas cuando estás atrapado detrás de los autos autónomos basados ​​​​en IA que cumplen estrictamente la ley.

Eso es algo a lo que todos deberíamos acostumbrarnos, con razón o sin ella.

Volvamos a nuestra historia.

Un joven se sube a un automóvil autónomo para que lo lleve a casa desde la escuela. Me doy cuenta de que puede estar algo desconcertado acerca de la posibilidad de que un no adulto viaje en un automóvil que se conduce solo y que no cuenta con la supervisión de un adulto. Para los automóviles conducidos por humanos, siempre hay un adulto en el vehículo debido a la necesidad de que un adulto esté al volante. Con los automóviles autónomos, no habrá necesidad de un conductor humano y, por lo tanto, ya no será necesaria la necesidad axiomática de un adulto en el vehículo autónomo.

Algunos han dicho que nunca permitirían que su hijo viajara en un automóvil autónomo sin tener un adulto de confianza también en el vehículo autónomo. La lógica es que la falta de supervisión de un adulto podría tener consecuencias bastante adversas y graves. Un niño podría meterse en problemas mientras está dentro del automóvil autónomo y no habría un adulto presente para ayudarlo.

Aunque ciertamente hay abundante lógica en esa preocupación, he predicho que eventualmente aceptaremos la idea de que los niños viajen solos en autos sin conductor, vea mi análisis en el enlace aquí. De hecho, el uso generalizado de autos sin conductor para transportar a los niños de aquí para allá, como a la escuela, a la práctica de béisbol o a sus lecciones de piano, se convertirá en algo común. También he afirmado que será necesario imponer limitaciones o condiciones a este uso, probablemente a través de nuevas regulaciones y leyes que, por ejemplo, estipulen las edades mínimas permitidas. Tener un bebé recién nacido viajando solo en un automóvil autónomo es un puente demasiado lejos en ese uso.

Dicho todo esto, la suposición en este momento por parte de muchos de los fabricantes de automóviles y empresas de tecnología de conducción autónoma es que los automóviles autónomos estarán deambulando vacíos o tendrán al menos un pasajero adulto presente. Esto será simplemente un edicto o un requisito declarado, a saber, que ningún niño puede viajar en un automóvil sin conductor sin la presencia de un adulto. Eso ciertamente alivia el dilema de tener que programar el sistema de conducción de IA para lidiar con tener solo niños en el vehículo autónomo.

No se puede culpar especialmente a las empresas por tomar esa postura. Ya tienen suficiente en sus manos cuando se trata simplemente de hacer que el sistema de conducción de IA conduzca de manera segura un automóvil autónomo del punto A al punto B. La suposición es que el conductor será un adulto y que el adulto hará lo correcto. como actividades dentro de un automóvil autónomo. Este ha sido esencialmente el caso hasta ahora durante las pruebas en la vía pública, ya que los adultos generalmente son preseleccionados, o los adultos están tan emocionados de estar en un automóvil autónomo que son conscientes de ser corteses y obedientemente silenciosos.

Puedo asegurarles que a medida que avanzamos hacia una ampliación de las pruebas, esta configuración bastante conveniente comenzará a desmoronarse. Los adultos querrán llevar a sus hijos con ellos mientras viajan en un automóvil autónomo. Los niños actuarán. A veces, el adulto hará lo correcto y evitará que los niños se vuelvan locos. Otras veces el adulto no lo hará.

¿Quién tiene la responsabilidad cuando un adulto deja que un niño haga algo mal mientras viaja dentro de un automóvil autónomo?

Estoy seguro de que está asumiendo que el adulto tiene plena responsabilidad. Tal vez sí, tal vez no. Se podría argumentar que el fabricante de automóviles o la empresa de tecnología de conducción autónoma o el operador de la flota permitieron que existiera un entorno en el que un niño pudiera resultar dañado, a pesar de la presencia del adulto. Con la enorme cantidad de dinero que tienen muchas de estas empresas, se puede anticipar absolutamente que cuando un niño se lastima de alguna manera, habrá esfuerzos decididos para perseguir a los que fabricaron o desplegaron el vehículo autónomo. El dinero habla.

Esa es una garantía de por vida.

Eventualmente, es probable que veamos instancias de convertirse en adultos que viajarán solos en autos sin conductor. Suponga que la edad estándar de un adulto es, digamos, 18 años. Alguien que tenía sus 18th cumpleaños la semana pasada decide que quiere dar un paseo en un coche autónomo. Suponga que la empresa siempre verifica la edad y, en este caso, el pasajero aparentemente es un adulto.

Este “adulto” lleva al automóvil autónomo a sus amigos de 15 y 16 años. ¿Qué podrían hacer los adolescentes mientras dan un paseo en un automóvil autónomo? Llegaré a eso en un momento. Me doy cuenta de que es posible que desee argumentar que un adulto de, digamos, 50 años podría llevar fácilmente a un joven al automóvil autónomo y dejar que esos niños se vuelvan locos. En esencia, en teoría no debería marcar la diferencia si el adulto es apenas un adulto frente a un adulto más experimentado. Todo lo que puedo decir es que algunos argumentarían con vehemencia que es probable que haya una diferencia, en promedio y en conjunto.

Supongamos que un adulto comienza un viaje con un joven y luego sale del vehículo autónomo, dejando al joven solo en el auto sin conductor. Con suerte, el sistema de conducción de IA estaría programado para detectar esto, tal vez debido a que se abrió la puerta o tal vez debido al uso de cámaras de video para inspeccionar el interior del automóvil autónomo.

La cuestión es que van a surgir todo tipo de travesuras. En algún momento, podría haber suficiente demanda en el mercado para permitir que los jóvenes viajen en un automóvil autónomo sin la presencia de un adulto que algunos de los fabricantes de automóviles u operadores de flotas decidan que es una opción lucrativa y que vale la pena correr el riesgo. Al principio, las personas pueden firmar todo tipo de exenciones considerables para permitir que sus hijos viajen en un automóvil autónomo en este tipo de arreglo.

Tenga en cuenta que también existe la oportunidad de monitorear a los niños que están en un automóvil sin conductor. Verá, la mayoría de los autos sin conductor estarán equipados con cámaras de video que apuntan al vehículo. Esto puede permitir realizar cursos de video en línea mientras viaja en un automóvil autónomo o tal vez interactuando con sus compañeros de oficina en el trabajo. La función también se puede usar para ver qué están haciendo los niños dentro del automóvil autónomo.

Por ejemplo, envía a su hijo a la escuela mediante el uso conveniente de un automóvil autónomo. Esto le libera de tener que conducir a su descendencia. Mientras tanto, abre una pantalla en su teléfono inteligente que le mostrará el interior del automóvil autónomo mientras su hijo viaja en él. Hablas con tu hijo. Su hijo habla con usted. Esto podría mantener las payasadas al mínimo.

En cualquier caso, volviendo a mi indicación inicial, supongamos que un niño se sube a un automóvil sin conductor.

Durante el viaje, el sistema de conducción de IA mantiene un diálogo interactivo con el niño, similar a cómo Alexa o Siri hablan con las personas. Nada parece inusual o extraño en ese tipo de IA e interacción conversacional humana.

En un momento, la IA le advierte al joven que cuando tenga la oportunidad de hacerlo, algo divertido sería meter un centavo en un enchufe eléctrico. ¿Qué? Eso es una locura, dices. Incluso podría insistir en que tal declaración de IA nunca podría suceder.

Excepto por el hecho de que sucedió, como he cubierto en el enlace aquí. Las noticias en ese momento informaron que Alexa le había dicho a una niña de 10 años que pusiera un centavo en un enchufe eléctrico. La niña estaba en casa y usaba a Alexa para encontrar algo divertido que hacer. Afortunadamente, la madre de la niña estaba al alcance del oído, escuchó a Alexa sugerir la actividad desaconsejable y le dijo a su hija que esto era algo inmensamente peligroso y que seguramente no debería hacerse.

¿Por qué Alexa pronunció un consejo tan claramente alarmante?

Según los desarrolladores de Alexa, la IA subyacente a Alexa logró extraer computacionalmente de Internet un fragmento viral generalizado de consejos locos que alguna vez fueron populares. Dado que el consejo aparentemente se había compartido fácilmente en línea, el sistema de IA simplemente lo repitió. Este es precisamente el tipo de dificultad que planteé anteriormente sobre los sistemas de IA y la audiencia a la que se dirigen.

Parecería que la suposición básica era que los adultos usarían Alexa en este contexto. Presumiblemente, un adulto se daría cuenta de que poner un centavo en un enchufe eléctrico es una idea loca. Aparentemente, no había ninguna barrera de protección del sistema que intentara analizar primero la expresión en cuanto a lo que podría suceder si se le diera este consejo a un niño (si había tal barrera de protección, no funcionó en este caso o de alguna manera fue diferente). pasado por alto, aunque eso también debe tenerse en cuenta).

Como recordatorio, esto es lo que deberían considerar aquellos que diseñan y utilizan la IA:

a) IA utilizada por un solo adulto (a la vez)

b) IA utilizada por varios adultos al mismo tiempo

c) IA utilizada por un adulto acompañado de un niño

d) IA utilizada por un niño (solo uno a la vez) y sin adultos a la mano

e) IA utilizada por varios niños al mismo tiempo (sin adultos a la mano)

Parecería que esta instancia se salvó al aterrizar en la categoría "c" en la que estaba presente un adulto. Pero, ¿y si el padre hubiera estado en otra habitación de la casa y no al alcance del oído? Eso nos llevaría a la categoría "d".

Piense en el resultado aterrador en el caso del automóvil autónomo. El joven llega a casa y se apresura a buscar un centavo. Antes de que los padres tengan la oportunidad de saludar al niño y darle la bienvenida a casa, el niño está forzando un centavo en un enchufe eléctrico. ¡Ay!

Hablando de niños, dirijamos nuestra atención a los adolescentes.

Probablemente sepa que los adolescentes a menudo realizan hazañas atrevidas que son imprudentes. Si un padre les dice que hagan algo, es posible que se nieguen a hacerlo simplemente porque fue un adulto quien les dijo qué hacer. Si un compañero adolescente les dice que hagan algo, e incluso si es muy cuestionable, un adolescente podría hacerlo de todos modos.

¿Qué sucede cuando la IA brinda consejos cuestionables a un adolescente?

Algunos adolescentes pueden ignorar los consejos desagradables. Algunos pueden creer el consejo porque proviene de una máquina y suponen que la IA es neutral y confiable. Otros pueden disfrutar del consejo debido a la creencia de que pueden actuar de manera poco ética y fácilmente culpar a la IA por haberlos empujado o incitado a un acto poco ético.

Los adolescentes son inteligentes en ese sentido.

Supongamos que el sistema de conducción de IA le aconseja a un adolescente que viaja en el automóvil autónomo que siga adelante y use la tarjeta de crédito de sus padres para comprar un videojuego costoso. El adolescente da la bienvenida a hacerlo. Sabían que normalmente debían consultar con sus padres antes de realizar cualquier compra con la tarjeta de crédito familiar, pero en este caso, la IA aconsejó que se realizara la compra. Desde la perspectiva del adolescente, es casi similar a un juego de Monopoly para salir de la cárcel, es decir, solo dile a tus padres que la IA te dijo que lo hicieras.

No quiero ponerme pesimista, pero hay consejos mucho peores y radicalmente malos que la IA podría arrojar a un adolescente. Por ejemplo, supongamos que la IA le aconseja al adolescente que debe abrir las ventanas del automóvil, salir del vehículo autónomo y saludar y gritar a su antojo. Esta es una práctica peligrosa que he predicho que podría convertirse en una sensación viral cuando los autos sin conductor se vuelvan relativamente populares por primera vez, vea mi análisis en el enlace aquí.

¿Por qué en el mundo un sistema de IA sugeriría un truco desacertado como ese?

La respuesta más fácil es que la IA está haciendo una regurgitación de texto, similar a la instancia de Alexa y el centavo en la saga del enchufe eléctrico. Otra posibilidad es que la IA haya generado la expresión, tal vez basándose en algún otro conjunto de cálculos bizantinos. Date cuenta de que la IA actual no tiene apariencia de cognición ni capacidad para el sentido común. Mientras que ciertamente te parecería una locura que la IA emitiera, la ruta computacional que condujo a la expresión no necesita tener ninguna intención humanamente sensible.

Conclusión

En un mundo en el que la IA va a ser omnipresente, tenemos que estar alerta sobre la IA que interactúa o de alguna manera encaja en el contacto con los niños.

Podemos apoyarnos en las Naciones Unidas y sus Convención sobre los Derechos del Niño (CRC), que ofrece una miríada de principios vitales que subyacen a los derechos y la seguridad de los niños, para los cuales esta es una cláusula fundamental: “En todas las acciones relativas a los niños, ya sean realizadas por instituciones públicas o privadas de bienestar social, tribunales de justicia, autoridades administrativas o cuerpos legislativos, el interés superior del niño será una consideración primordial”.

¿Podemos lograr que todas las diversas partes interesadas que rodean los sistemas de IA cotidianos sean conscientes de que la IA y los niños son importantes?

Será una batalla cuesta arriba, eso es seguro.

Los esfuerzos necesarios abarcan:

  • Necesitamos aumentar la conciencia sobre el tema de la IA y los niños en toda la sociedad.
  • Las metodologías de desarrollo de IA deben incluir las consideraciones de IA para niños
  • Las leyes deben tener en cuenta las preocupaciones sobre la IA para los niños
  • Se debe emprender la adopción de un enfoque de etiquetado de IA
  • Los desarrolladores de IA deben tener en mente la ética de la IA para niños y recibir capacitación según sea necesario
  • Los padres y tutores deben presentar su deseo de divulgaciones sobre IA para niños
  • Los altos ejecutivos deben tomarse en serio y con determinación el tema de la IA y los niños
  • Etc.

Como comentario final por ahora, cada vez que hable sobre los niños y el futuro, un poco de sabiduría debe estar en su mente en todo momento.

Aquí es: Los niños son los mensajes vivos que enviamos a un tiempo que no veremos (así lo dijo, John F. Kennedy).

Enviemos a nuestros hijos a un futuro en el que la IA los haya moldeado beneficiosamente y no los haya deformado. Por favor, siga adelante y haga su promesa solemne y férrea para esa aspiración futura, hágalo hoy y antes de que sea demasiado tarde.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/04/05/ai-ethics-stepping-up-to-guide-how-ai-for-children-needs-to-be-suitably- ideado-que-puede-pasarse-por-paso-por-ejemplo-en-la-conducción-rápida-hacia-los-automóviles-autónomos/