Las empresas emergentes de IA finalmente se incorporan a la ética de la IA y la aman, incluidas las empresas de tecnología de automóviles autónomos novatos que también se conducen solos

Fracasa rápido, fracasa a menudo. Lo que sea que estés pensando, piensa en grande. Fingir hasta que lo hagas.

Estas son las típicas líneas de inicio que escuchas o ves todo el tiempo. Se han convertido en una especie de tradición de asesoramiento entre los empresarios en ciernes. Si paseas por Silicon Valley, probablemente verás calcomanías en los parachoques con esos eslóganes y verás a fundadores de alta tecnología usando sudaderas con capucha adornadas con esos tropos.

Las nuevas empresas relacionadas con la IA seguramente están incluidas en el grupo.

Sin embargo, tal vez podríamos agregar un consejo adicional de éxito de inicio para la IA que apunta a las empresas nacientes, a saber, que deberían abrazar enérgicamente la ética de la IA. Esa es una noción digna de una calcomanía y sin duda una sabiduría sabia útil para cualquier fundador de IA que esté tratando de descubrir cómo puede ser un líder adecuado y un emprendedor ganador. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

El primer impulso de muchas nuevas empresas de IA es probablemente exactamente lo contrario de querer adoptar la ética de la IA. Este es el por qué.

A menudo, el enfoque de una startup de IA es principalmente sacar algún sistema de IA tangible lo más rápido posible. Por lo general, existe una gran presión para producir un MVP (producto mínimamente viable). Los inversores son reacios a poner dinero en algún dispositivo de IA novedoso que podría no ser construible y, por lo tanto, la urgencia de crear un piloto o prototipo de IA es primordial. Como se suele decir, la prueba está en el pudín. Muchas nuevas empresas de IA tienen que ver con estar cabeza abajo y producir suficiente código de IA para hacer que su sueño de IA parezca plausible.

En ese sentido de atención, hay poco interés en preocuparse por la ética de la IA. La suposición habitual es que cualquier consideración ética de la IA se puede agregar una vez que se muestra el núcleo de la IA. Esta es una mentalidad de que cualquier apariencia de ética de la IA es simplemente la guinda del pastel y no es parte integral de la elaboración del pastel. Claro, esa ética de la IA es proverbialmente agradable de tener, y si el tiempo lo permite, plantará algunos elementos de IA ética aquí o allá, pero de lo contrario, toda la idea de incorporar debidamente la ética de la IA se considera descabellada y no una preocupación del mundo real.

Hay otro dicho semipopular que acompaña esta tendencia. En una pelea callejera, no tienes tiempo para preocuparte por el estilo. Una startup de IA está luchando valientemente para que su IA exista y luchando por obtener fondos para pasar a la siguiente etapa de desarrollo. Cualquier otra cosa, como esa molesta ética de la IA, se presume como extremadamente baja en las prioridades de lo que debe cuidarse.

También debo agregar que hay una gran cantidad de fundadores de empresas emergentes de IA que son totalmente ajenos a la creciente ola de llamados a una IA ética. Para empezar, aquellos que están en su propia niebla tecnológica desconocen por completo que a alguien le importa la ética de la IA. Como tal, puede apostar decididamente a que una startup de IA de este tipo no le dará tiempo al aire para incluir preceptos éticos de IA. Esta es una verdadera noción fuera de la vista y fuera de la mente de la cual los constructores de IA en la puesta en marcha probablemente ignoran felizmente e incluso cuando se les pregunta sobre la ética de la IA, tienden a descartarla como un factor totalmente marginal.

Quizás se pregunte si esos descarados fundadores de IA tienen razón en su forma de pensar. Tal vez la ética de la IA pueda dejarse de lado hasta el momento en que haya tiempo suficiente para arreglar el sistema de IA. O tal vez realmente no tiene ningún valor cumplir con la IA ética y que todas las travesuras sobre la ética de la IA son simplemente una de esas modas momentáneas.

Bueno, para ser franco, esa es una receta segura para el desastre.

En resumen, aquellos que ignoran o retrasan la ética de la IA corren un grave peligro de que su IA se incendie y su puesta en marcha también se derrumbe en un montón colosal. Además, el potencial de ramificaciones legales que persisten mucho después de que se abandone la puesta en marcha servirá como un recordatorio angustioso de que deberían haber hecho lo correcto desde el principio. Las demandas dirigidas a la puesta en marcha, el fundador, los inversores y otras partes interesadas serán un hedor de larga duración mucho más allá del cierre de la puesta en marcha fallida de IA.

Línea de fondo: La ética de la IA debe ser la piedra angular de todo lo que una startup de IA opte por hacer, desde el primer día y para siempre.

Punto, punto final.

En general, en mi experiencia asesorando a nuevas empresas de IA y también en base a algunos estudios de investigación recientes sobre nuevas empresas de IA, cualquier fundador que no esté prestando la atención adecuada a la IA ética probablemente se encuentre en un camino amargo y encontrará que sus esfuerzos de IA fracasan. Los inversores se dan cuenta cada vez más de que, sin la cantidad adecuada de ética de IA que se imbuye en un sistema de IA en ciernes, la IA prevista probablemente será una inversión pésima o, peor aún, un enredo miserable y legalmente agotador.

Lo más probable es que la IA sin una base ética de IA dé algunos pasos en falso feos y reputacionales. Si se demuestra que la IA incluye sesgos e inequidades desagradables, la protesta pública será fuerte y se multiplicará a través de los chismes virales de las redes sociales de hoy. No solo la puesta en marcha de IA entrará en agua caliente, sino que los inversores también serán arrastrados al mismo lodo. ¿Por qué invirtieron en una startup de IA que tenía la cabeza en la arena cuando se trataba de observar los principios éticos de IA? Los inversores no quieren verse empañados permanentemente por los actos de una startup de IA en particular que ellos mismos financiaron.

Tenga en cuenta que una gran cantidad de dinero está fluyendo hacia las nuevas empresas de IA.

Estamos en medio de una carrera eufórica hacia cualquier cosa relacionada con la IA. De acuerdo con las estadísticas recopiladas recientemente en nombre de la Wall Street Journal, La financiación de Venture Capital (VC) de nuevas empresas de IA el año pasado logró engullir alrededor de $ 8 mil millones en fondos. Esta es probablemente una estimación baja, ya que hay muchas nuevas empresas de IA que al principio ocultan sigilosamente sus aspiraciones de IA, queriendo evitar la competencia o evitar presionar a otros para que se den cuenta de que la IA se puede usar de una manera ingeniosa con un diseño inteligente.

Una encuesta de investigación perspicaz sobre cómo las nuevas empresas de IA están utilizando potencialmente la ética de la IA apareció recientemente como un documento de trabajo de la Centro de Regulaciones y Mercados en Brookings y se titula “Desarrollo ético de IA: evidencia de empresas emergentes de IA” por James Bessen, Stephen Impink, Robert Seamans. Echemos un vistazo instructivo a lo que encontraron.

Su estudio encuestó a un poco más de doscientas nuevas empresas relacionadas con la IA y preguntó a las empresas sobre el conocimiento y la aceptación de la IA ética en su empresa. La buena noticia es que aproximadamente la mitad de los encuestados dijeron que tienen preceptos de IA ética internamente. Eso en realidad es algo sorprendente, ya que hace solo unos años, las probabilidades eran que un porcentaje mucho más bajo hubiera estado tan armado.

Esto es lo que dijo el estudio sobre el examen de la adopción de la ética de la IA en estas nuevas empresas de IA: “Evaluamos estos problemas mediante la recopilación y el análisis de datos de encuestas novedosas de 225 nuevas empresas de IA. Encontramos que más de la mitad de las empresas que respondieron tienen principios éticos de IA. Sin embargo, muchas de esas empresas nunca han invocado sus principios éticos de IA de manera costosa, como despedir a un empleado, eliminar datos de capacitación o rechazar una venta”.

Como lo sugieren los comentarios puntuales, la mala noticia sobre la adopción de la ética de la IA en las nuevas empresas de IA es que es posible que no estén adoptando seriamente los preceptos de la IA ética. Podría ser de boquilla.

Tu sabes como es eso.

Una startup de IA tal vez sea avergonzada o coaccionada para creer en la ética de la IA, por lo que hace lo mínimo que tiene que hacer para aplacar a los demás. Tal vez adornen sus oficinas con pancartas que promocionan la IA ética. El fundador podría dar discursos elevados sobre la importancia de la ética de la IA. Mientras tanto, entre bastidores, se presta poca atención a la noción de IA ética y posiblemente incluso se la desprecia o se ridiculiza por parte de los grandes bateadores de alta tecnología que construyen la IA.

No queriendo parecer demasiado severos, al menos podemos anunciar que algo más de la mitad de las nuevas empresas de IA afirmó haber adoptado los principios éticos de la IA. Supongo que podemos regocijarnos en esa revelación. Por supuesto, esto también implica que algo menos de la mitad no ha adoptado los principios éticos de la IA. Esto invoca una cara triste.

Tenemos aproximadamente la mitad de los que aparentemente recibieron la nota (por así decirlo) sobre la adopción de la ética de la IA, aunque una parte de ellos posiblemente lo esté haciendo simplemente como una marca de verificación para promocionar que están comprometidos con la IA ética. Luego tenemos aproximadamente la otra mitad que aparentemente no ha adoptado la ética de la IA. Seré optimista y diré que podemos esperar que esas nuevas empresas de IA sin lavar se despierten gradualmente y adopten la IA ética y que las nuevas empresas de IA que son relajadas con su ética de IA ya adoptada busquen estridentemente convertir la apariencia en una realidad. basado en prácticas reales de IA ética.

Esa es la vista de cara sonriente.

Continuando con nuestra mirada a los resultados de la encuesta, estas son algunas de las características de las nuevas empresas de IA que fueron encuestadas: “Las empresas de nuestra encuesta tienen alrededor de cuatro años y emplean, en promedio, a 36 empleados. Sin embargo, casi la mitad de las empresas tienen menos de once empleados. Aunque la encuesta se administró en todo el mundo, la mayoría de nuestras respuestas provienen de países más desarrollados, con casi el 80 % de las respuestas de Estados Unidos, Canadá y Europa”.

Casi estaría dispuesto a afirmar que es probable que las nuevas empresas de IA más nuevas adopten la ética de la IA que las que ya llevan unos años en su camino. El llamado “ADN comercial” de una startup a menudo se decide en su formulación inicial. Y dado que la trompeta de la IA ética ahora está sonando con fuerza, es de suponer que las nuevas empresas de IA que acaban de ponerse en marcha adoptarán la ética de la IA. Las nuevas empresas que se lanzaron hace unos años podrían haberse perdido las alarmas existentes sobre la IA ética. Como tal, para algunos de ellos, es posible que las raíces fundamentales de su puesta en marcha no se desarraiguen fácilmente para incorporar ahora la ética de la IA.

Ese último comentario merece una atención adicional.

Podría estar pensando que si ahora hay ventajas en adoptar la ética de la IA, lo más sensato sería que las nuevas empresas de IA ya existentes se suban a ese carro. Esto podría suceder.

Por otro lado, el tono y la mentalidad del fundador suelen ser inamovibles y, del mismo modo, la puesta en marcha de la IA también se carga de hormigón. Puede ser muy difícil para el fundador cambiar sus puntos de vista y, de manera similar, reajustar la puesta en marcha en consecuencia. He escrito mucho sobre la importancia de que los fundadores de empresas emergentes puedan pivotar según sea necesario, aunque pocos saben cómo hacerlo y, lamentablemente, permiten que sus empresas emergentes se tambaleen en consecuencia (vea mi extenso análisis de fundadores de empresas y pivotes de empresas emergentes en el enlace aquí).

Volviendo al estudio y descubriendo que tal vez la adopción de la ética de la IA por parte de algunas de las nuevas empresas de IA no se estaba haciendo en serio, deberíamos examinar ese asunto.

Surge la pregunta de cómo podemos corroborar que una startup de IA de hecho cumple con los principios éticos de IA. Esto es mucho más difícil de establecer de lo que podría parecer a primera vista. Una forma de resolver esto sería sumergirse en la codificación de IA y ver si podemos encontrar una aceptación programática de la ética de la IA. Del mismo modo, podríamos intentar probar el sistema de IA para ver si viola la ética de la IA. En general, este es un medio orientado a la tecnología para tratar de discernir la adhesión a la IA ética.

Otro enfoque igualmente valioso sería ver si las decisiones comerciales de la puesta en marcha de IA parecen reflejar una creencia declarativa en la IA ética. ¿Las acciones de la startup de IA coinciden con las palabras de la startup de IA en lo que respecta a afirmar que la ética de la IA es vital y demostrativa para la empresa?

La encuesta examinó este enfoque y ofreció estos hallazgos: “Un conjunto de principios éticos de IA en sí mismo no es importante a menos que las empresas se adhieran a esos principios. A partir de la encuesta, les pedimos a las empresas con políticas de IA que proporcionen información adicional sobre cómo el cumplimiento de estas políticas afecta sus resultados comerciales para determinar si se siguen las políticas de ética en lugar de simplemente ser señales para los inversores. Más de la mitad de las empresas con principios de IA experimentaron al menos un resultado comercial costoso porque se adhirieron a sus principios éticos de IA”.

El punto es que si una startup de IA ha optado por asegurarse de que la ética de la IA se encuentre en el camino, por así decirlo, es probable que haya resultados comerciales de naturaleza un tanto costosa en los que tendría que incurrir. El dinero habla, como dicen. Una startup de IA que tal vez despide a alguien por no cumplir con los preceptos éticos de la IA o que tiene que contratar a alguien nuevo para ayudar en la búsqueda de la ética de la IA está poniendo su dinero donde está su boca. Esto es especialmente significativo para las nuevas empresas de IA, ya que generalmente subsisten marginalmente con la menor cantidad de dinero y tienen que estirar cada dólar que pueden. Cualquier costo que, por lo tanto, se dirija hacia la adopción de un principio ético de IA puede interpretarse como una opción considerable y que indica una creencia sólida en la ética de la IA.

Sin embargo, debemos tener cuidado al saltar a un razonamiento injusto en tales asuntos. Una puesta en marcha de IA desde el principio puede haber impulsado la IA ética en todo su ser. En ese caso, es posible que, más adelante, no tengan que incurrir en ninguna opción costosa orientada a la ética de la IA. Por lo tanto, estaríamos infiriendo algo engañosamente que si no tienen esas costosas acciones subsiguientes, no son realmente serios acerca de la IA ética. Esta es una forma de lo que a veces se denomina sesgo de superviviente. Es posible que solo estemos mirando a las empresas que inicialmente se saltearon el establecimiento de los fundamentos de la ética de la IA y dándoles la credibilidad atrasada cuando, más tarde, intenten corregir su nave equivocada anterior.

También me gustaría cubrir otro tema vital sobre por qué las nuevas empresas de IA hoy en día van a adoptar más la ética de la IA.

Hace unos momentos mencioné que los inversores expertos en IA ahora tienden a exigir que las nuevas empresas que están financiando tengan que mostrar una adopción estridente de la IA ética. Hay otras formas en que esto surge también. Por ejemplo, las empresas de tecnología más grandes que están creando IA están adoptando rápidamente la ética de la IA, especialmente porque se dan cuenta de que son un gran objetivo para cuando su IA falla éticamente. A su vez, esas firmas tecnológicas más grandes a menudo instan a las nuevas empresas de IA a que también adopten la IA ética.

Aquí está la base para ese pensamiento.

Muchas de las firmas tecnológicas más grandes a veces deciden comprar una startup de IA, haciéndolo para aumentar su propia IA o para permitirles ingresar más rápidamente en un nuevo mercado que la IA proporcionada por la startup abre para sus esfuerzos. Estas importantes firmas de tecnología tienen muchos abogados en su nómina y conocen bien los peligros de quedar atrapados en el uso de una IA poco ética. Lo que todo esto significa es que si una startup de IA ya ha hecho el trabajo preliminar para adoptar la ética de la IA, la gran empresa de tecnología que quiere comprarla tiene más facilidad para decidir hacerlo.

La imagen contrastante es que si una startup de IA no ha logrado adoptar la ética de la IA, ahora es un niño problemático cuando se trata de una empresa tecnológica más grande que quiere comprar o invertir en la entidad en ciernes. ¿La IA potencialmente poco ética se convertirá en la cola que mueve al perro? ¿Cuánto dinero se necesitará para cambiar la puesta en marcha de IA hacia una aspiración de IA más ética? ¿Vale la pena hacer esa inversión por la probable demora, o en su lugar deberían encontrar otra startup de IA que ya haya infundido ética de IA desde el primer día?

Un fundador de IA debería estar pensando en estas consideraciones cruciales.

Cuando se concibe por primera vez una startup de IA, la mejor manera de proceder consiste en pensar en una estrategia de crecimiento potencial (y, de manera similar, una estrategia de salida viable). Deberías estar albergando todo el tiempo con las posibilidades de que un pez más grande quiera engullirte. A algunos empresarios les gusta la idea, mientras que otros no e insisten en seguir adelante por su cuenta. En cualquier caso, cuando una empresa más grande llama a la puerta, las tentaciones de obtener una gran afluencia de efectivo que pueda mantener a su bebé en marcha son bastante atractivas. Debe planificar de manera lucrativa para ese día (pero no hay garantías de ello), y asegurarse de no quedar atrapado en el altar de tal manera que el matrimonio propuesto se desmorone repentinamente debido al descubrimiento de que la IA ética no fue una base para su puesta en marcha de IA.

Supongo que es una especie de zanahoria, pero también debemos considerar el palo (es decir, la infame forma de ver la vida del palo y la zanahoria).

Se están aprobando rápidamente nuevas leyes sobre IA, consulte mi amplia cobertura en el enlace aquí.

Las cosas salvajes que las nuevas empresas de IA se salieron con la suya hace unos años se codificarán gradualmente en la ley como algo que ahora se declara más claramente como categóricamente ilegal. Si una startup de IA se adhiere estrechamente a la ética de la IA, es probable que también permanezca dentro de la rúbrica de ser legal. Esto ciertamente no es así, pero ciertamente es más probable y también podría argumentarse de manera algo creíble en un caso legal como una apariencia de cómo la puesta en marcha de IA intentó seriamente crear una IA legal.

De acuerdo, tenemos la zanahoria de una empresa de tecnología más grande que podría querer comprar o invertir en una startup de IA, lo que sería más fácil de hacer si la startup de IA adoptara la IA ética. También tenemos el palo de la nueva legislación y regulaciones que apuntan a la IA y serán una posible mina legal para las nuevas empresas de IA que no tienen en cuenta la ética de la IA. En total, es un poderoso doble golpe que dice que un emprendedor consciente de la IA debe buscar conscientemente ingresar a la IA ética.

La encuesta generalmente encontró que este golpe uno-dos se evidencia a través de las respuestas que recibieron: “A partir de nuestros resultados, es evidente que muchas nuevas empresas de IA son conscientes de posibles problemas éticos, y más de la mitad ha tomado medidas al proporcionar principios codificados de IA para guiar su empresa. Sin embargo, es más probable que las empresas con recursos previos, como relaciones de intercambio de datos con empresas de alta tecnología más grandes y experiencia regulatoria previa con GDPR, actúen de acuerdo con estos principios de manera material” (la referencia a GDPR es una indicación de la Normativa General de la Unión Europea). Reglamento de protección de datos, que es la ley de la UE que cubre los aspectos de privacidad y protección de datos).

A lo largo de esta discusión sobre la ética de la IA, supuse que ya está familiarizado con las facetas generales de la IA ética. También he estado haciendo algunas suposiciones sobre la IA. Deberíamos explorar estos asuntos antes de profundizar en el desempaquetado del enigma de la puesta en marcha de la IA y la ética de la IA.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar las circunstancias de puesta en marcha de IA y ética de IA. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿La llegada de los verdaderos autos autónomos basados ​​en IA aclara algo sobre las nuevas empresas de IA y la IA ética y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Autos autónomos y startups de IA con IA ética

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Confío en que proporcione una letanía suficiente de advertencias para subyacer a lo que estoy a punto de relatar.

Ahora estamos preparados para profundizar en los automóviles autónomos y las posibilidades de IA ética que implican las nuevas empresas de IA.

Un poquito de una pequeña lección de historia está en orden.

Cuando se puso en marcha el primer scrum de las empresas de automóviles autónomos de IA, se prestó muy poca atención a las preocupaciones éticas de la IA. En aquellos días, el enfoque era la preocupación de asombro tecnológico habitual sobre si la IA podría diseñarse o no para conducir un automóvil. La idea principal era que si surgían dudas sobre la ética de la IA, no había una base particular para preocuparse por ello hasta que uno pudiera “probar” sumariamente que la IA capaz de conducir era claramente factible.

Estar demasiado preocupado por la ética de la IA era como poner el carro delante del caballo, habrían sugerido algunos en ese momento.

Además, no había tanta conciencia sobre cómo la IA podría moldearse de tal manera que realmente se desempeñara de manera poco ética. En general, se suponía que un desarrollador de IA tendría que hacer todo lo posible para crear una IA que no fuera de calibre ético. Solo los malhechores que estaban construyendo astutamente la IA harían eso.

Es posible que sepa que, eventualmente, el ámbito de la ética de la IA inevitablemente se encontró con aquellos que fabrican y colocan vehículos autónomos infundidos con IA. Varios actos sucios por parte de los sistemas de conducción de IA (tan mal concebidos o, a veces, como implementados a medias) dieron como resultado que se dieran cuenta de que había que hacer algo. He hecho una crónica en mi columna en curso de muchos años de los cambios graduales en la IA ética que tuvieron lugar, incluido el hecho de que la mayoría, si no casi todas, las firmas tecnológicas autónomas de buena fe terminaron poniendo ejecutivos de alto nivel responsables de infundir la ética de la IA en todo el mundo. sus firmas (vea mi cobertura en el enlace aquí).

Dicho esto, no quiero dejar la impresión de que el asunto de la IA ética está de alguna manera totalmente resuelto en las entidades de automóviles autónomos de IA de hoy. Les aseguro que todavía tenemos mucho terreno por recorrer. Por ejemplo, como he insistido en numerosas ocasiones, hasta el día de hoy todavía no se presta la debida atención a los problemas de ética de la IA, provocados por el famoso o infame Problema del Trolley. Para obtener detalles sobre este asunto no resuelto, consulte mi discusión en el enlace aquí y el enlace aquí.

Una cosa que también se debe tener en cuenta es que, en general, la mayoría de las entidades de automóviles autónomos ya no están razonablemente etiquetadas como nuevas empresas de IA. Están mucho más allá de la fase de inicio. Algunos de ellos crecieron solos. Algunos de ellos fueron comprados por una empresa más grande, como un fabricante de automóviles o una empresa de entrega. Etc.

En ese sentido, se podría argumentar que hoy en día generalmente pueden darse el lujo de adoptar la ética de la IA. Están llenos de efectivo y tienen la capacidad de administrar sus empresas de una manera menos hambrienta. También tienden a tener una mayor exposición de que si no cumplen con la IA ética, serán llamados por ello.

Cuando tienes tus autos sin conductor dando vueltas en las vías públicas, cualquier falla ética de la IA seguramente se notará y se informará ampliamente. La empresa matriz propietaria de la entidad de automóviles autónomos de IA recibirá una dura paliza a la vista del público y, potencialmente, recibirá un duro golpe en el mercado de valores. Por una variedad de razones, el peso de la ética de la IA tiende a ser relativamente valorado, pero, por supuesto, este no es necesariamente siempre el caso y puede apostar a que se producirán fallas.

¿Esto implica entonces que no hay nuevas empresas de IA en este nicho y, por lo tanto, no es necesario discutir su adopción de la ética de la IA allí?

Puede parecer así, ya que los titulares suelen ser sobre las grandes empresas de tecnología autónoma. A menos que estés prestando especial atención a este nicho, pensarías que no hay nuevas empresas que se incorporen a este ámbito. Todo el tinglado parece estar dominado por empresas relativamente establecidas y toda la actividad de puesta en marcha se ha realizado previamente o no puede obtener ninguna tracción ya que el mercado está obstruido con los grandes robles autoritarios de hoy.

Se equivocaría al hacer tal suposición sobre las nuevas empresas de IA en este campo. Todavía hay bastante acción. La diferencia es que las nuevas empresas de IA hoy en día tienden a apuntar a una parte del pastel en lugar de a todo el pastel. En días pasados, las nuevas empresas de IA generalmente querían construir un automóvil autónomo de IA desde cero, haciendo todo, de la A a la Z. Empezaría desde cero con una hoja de papel en blanco e imaginaría lo que algún día podría ser un automóvil autónomo. parecerse a. Esas se convirtieron en sus órdenes de marcha.

Las probabilidades de que ese tipo de startup de IA se lance hoy son relativamente bajas. En cambio, las nuevas empresas de IA en el nicho de los automóviles autónomos tienden a tratar con componentes o subconjuntos particulares de lo que consisten los automóviles autónomos de IA. Esto sucede bastante en las facetas del conjunto de sensores de los automóviles autónomos. Tiene un surgimiento continuo de nuevas empresas de IA que se concentran en un tipo particular de sensor o un algoritmo de IA específico para hacer un mejor trabajo de interpretación de los datos recopilados por un tipo de sensor específico.

En general, la cuestión de hacer que las nuevas empresas de IA adopten la ética de la IA sigue viva y activa en el espacio de los vehículos autónomos y los autos sin conductor.

Al asesorar a las nuevas empresas de IA en total e incluidas las del ámbito de los vehículos autónomos, he presentado mis consejos o recomendaciones favoritos sobre estos asuntos.

Como muestra, aquí están mis Top Ten decretados:

1) El fundador tiene que ser o convertirse en un proselitista de la ética de la IA; de lo contrario, el resto de la startup de IA no percibirá que el tema merece la escasa atención disponible y los esfuerzos ya sobrecargados de trabajo (todo comienza en la parte superior).

2) Es poco probable que un fundador comprenda completamente lo que implica la IA ética y debe ponerse al día para que su comprensión del tema coincida con su pasión por él (sepa de lo que está hablando).

3) Los tópicos vacíos de un fundador sobre la ética de la IA socavarán absolutamente los equipos de inicio y convertirán el estandarte de la IA ética en una bandera sin valor sin ninguna sustancia (no envenene las aguas).

4) Asegúrese de conectar los preceptos de la IA ética con los deberes y acciones específicos involucrados en el diseño, la construcción, la prueba y el campo de la IA (de lo contrario, existirá una brecha infranqueable y de gran tamaño y sus equipos no podrán conectar los puntos).

5) Implementar una metodología de desarrollo de IA sensata que ya haya incorporado preceptos de IA ética o que pueda adaptarse razonablemente de manera adecuada y sin distracciones indebidas (una metodología adecuada guiará a los equipos sin problemas en el camino hacia la fructificación de la ética de IA).

6) Proporcione capacitación adecuada a los equipos sobre la ética de la IA y asegúrese de que esto se haga de una manera inminentemente práctica (la capacitación elevada hará poco y probablemente cause una reacción negativa por haber perdido aparentemente un tiempo precioso).

7) Establecer un medio relevante para recompensar a los equipos por adoptar la IA ética en sus esfuerzos diarios, incluido un reconocimiento muy visible por parte del fundador, bonificaciones monetarias o de otro tipo, tarjetas de puntuación amistosas y competiciones, y similares (hablar el camino, caminar lo que se habla).

8) Contrate a un tercero de confianza para que revise periódicamente la adopción de la ética de la IA, proporcionando un par de ojos independientes para ver cómo van realmente las cosas (supere los lugares comunes internos y vea el mundo como realmente es).

9) Asegúrese de mantener informados a sus inversores y otras partes interesadas sobre sus actividades y adopción de IA ética, ya que de lo contrario es probable que supongan que no está haciendo nada al respecto y, sin darse cuenta, podrían volverse tiránicos repentinamente cuando se produzcan baches en los esfuerzos de IA (siéntase orgulloso y sea ​​vocal sobre sus actividades de ética de la IA).

10) Manténgase al tanto de la aceptación de la IA ética, ya que nunca termina y deberá tener un mantenimiento y un impulso continuos (usted duerme, pierde).

Tengo muchas más de estas recomendaciones de adopción organizacional de ética de la IA y las cubriré gradualmente en publicaciones posteriores. Manténganse al tanto.

Conclusión

El vaso está medio lleno y medio vacío.

Según la encuesta citada anteriormente, aproximadamente la mitad de las nuevas empresas de IA encuestadas estaban adoptando la ética de la IA y, por lo tanto, podemos suponer que aproximadamente la mitad no lo estaba. Sin embargo, también sabemos que incluso si una startup de IA dijera que estaba adoptando la IA ética, es posible que no lo haya hecho de manera sustancial. Es abundantemente fácil y conveniente hablar simplemente de la causa.

Las presiones que surgen de las demandas de los inversores inteligentes sin duda impulsarán el ritmo y la proporción de nuevas empresas de IA que, voluntariamente o no, optarán por sumergirse de lleno en el ámbito de la ética de la IA. Del mismo modo, el espectro de juicios y enjuiciamientos por actos delictivos como resultado de la violación de las leyes relacionadas con la IA que se promulgaron recientemente sin duda inspirará a las nuevas empresas de IA a actuar juntas en asuntos de IA ética.

¿Vale la pena ignorar o eludir la ética de la IA ostensiblemente perder la camisa o terminar en una celda de la cárcel? Ciertamente espero que no.

El duro dolor del palo, por supuesto, no es la única base para aspirar a adoptar la ética de la IA. Como se mencionó, si desea crecer o posiblemente eventualmente salir de su inicio, las empresas de compra más grandes querrán ver que tiene una IA ética adecuada y que realmente la infundió en su inicio de IA. La recompensa de acatar la ética de la IA es sensata y enorme. La zanahoria es buena.

Como comentario final, por ahora, todos sabemos que a los que están en el campo de la tecnología les encanta promocionar consignas copiosas y pegadizas. Construye el futuro. Superar los límites. Estar basado en datos. Ve a lo grande o vete a casa.

Y solo hay que añadir uno más: Abrazar enérgicamente la ética de la IA.

Vívelo, hazlo así, créelo.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/04/21/ai-startups-finally-getting-onboard-with-ai-ethics-and-loving-it-incluidos-los-novatos- autónomo-auto-conducción-coche-empresas-tecnológicas-también/