He aquí por qué las empresas están teniendo una tumultuosa relación de amor y odio con las juntas de ética de IA

¿Debería una empresa establecer un consejo asesor de ética de la IA?

Es posible que se sorprenda al saber que esta no es una respuesta fácil de sí o no.

Antes de entrar en las complejidades que subyacen a los pros y los contras de establecer un consejo asesor de ética de IA, asegurémonos de que todos estamos en la misma página en cuanto a en qué consiste un consejo asesor de ética de IA y por qué se ha elevado al nivel de los titulares. prominencia.

Como todos saben, la Inteligencia Artificial (IA) y el uso práctico de la IA para actividades comerciales se han disparado como una herramienta imprescindible para las empresas de hoy en día. Sería difícil argumentar lo contrario. Hasta cierto punto, la infusión de IA ha mejorado los productos y servicios y, en ocasiones, ha reducido los costos asociados con la provisión de dichos productos y servicios. Una ingeniosa lista de mejoras en la eficiencia y la eficacia se puede atribuir potencialmente a la aplicación sensata y adecuada de la IA. En resumen, agregar o aumentar lo que hace incorporando IA puede ser una propuesta bastante rentable.

También está el digamos gran chapuzon eso viene con la adición de IA en sus esfuerzos corporativos.

Las empresas son ruidosas y están orgullosas de su uso de la IA. Si la IA también mejora sus productos, eso es genial. Mientras tanto, las afirmaciones sobre el uso de IA son lo suficientemente llamativas como para que pueda estar haciendo prácticamente las mismas cosas que hacía antes, pero obtenga mucho más dinero o globos oculares lanzando el estandarte de IA como parte de su estrategia comercial y out- las mercancías de la puerta.

Ese último punto acerca de que a veces se evade un poco si la IA realmente se está utilizando nos lleva al terreno de la ética de la IA. Hay todo tipo de afirmaciones totalmente falsas sobre la IA por parte de las empresas. Peor aún, quizás, consiste en usar IA que resulta ser la llamada AI para mal.

Por ejemplo, sin duda ha leído acerca de los muchos casos de sistemas de IA que utilizan Machine Learning (ML) o Deep Learning (DL) que tienen prejuicios raciales, de género y otras prácticas discriminatorias indebidas e indebidas. Para conocer mi cobertura continua y extensa de estos asuntos relacionados con la IA adversa y el surgimiento de llamados clamorosos por la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

Por lo tanto, tenemos estos factores amargos ocultos dentro del uso aparentemente optimista de la IA por parte de las empresas:

  • Afirmaciones huecas de usar IA cuando en realidad no hay IA o infusión de IA insignificante
  • Afirmaciones falsas sobre el uso de IA que están diseñadas intencionalmente para engañar
  • Inclusión involuntaria de IA que resulta imbuir sesgos inapropiados y es discriminatorio
  • AI moldeada a propósito para promulgar prejuicios negativos y acciones discriminatorias despreciables
  • Otro

¿Cómo surgen este tipo de prácticas irreflexivas o vergonzosas en las empresas?

Una pieza notable del rompecabezas es la falta de conciencia sobre la ética de la IA.

Es posible que los altos ejecutivos desconozcan la noción misma de diseñar una IA que cumpla con un conjunto de preceptos éticos de IA. Los desarrolladores de IA en una empresa de este tipo pueden tener cierta conciencia del asunto, aunque tal vez solo estén familiarizados con las teorías de ética de la IA y no sepan cómo cerrar la brecha en los esfuerzos diarios de desarrollo de IA. También existe la circunstancia de los desarrolladores de IA que quieren adoptar la ética de la IA pero luego reciben un fuerte rechazo cuando los gerentes y ejecutivos creen que esto ralentizará sus proyectos de IA y aumentará los costos de diseño de IA.

Muchos altos ejecutivos no se dan cuenta de que es probable que la falta de adhesión a la ética de la IA termine pateándolos a ellos y a la empresa en el trasero tras el lanzamiento de la IA, que está repleta de problemas espinosos y desagradables. Una empresa puede quedar atrapada con una mala IA en su medio que luego socava lamentablemente la reputación acumulada de la empresa durante mucho tiempo (riesgo reputacional). Los clientes pueden optar por dejar de utilizar los productos y servicios de la empresa (riesgo de pérdida de clientes). Los competidores podrían sacar provecho de este fracaso (riesgo competitivo). Y hay muchos abogados listos para ayudar a aquellos que han sido transgredidos, con el objetivo de presentar fuertes demandas contra las empresas que han permitido la IA podrida en los productos de su empresa (riesgo legal).

En resumen, el ROI (retorno de la inversión) por hacer un uso adecuado de la ética de la IA es casi seguro que es más beneficioso que en comparación con los costos posteriores asociados con sentarse encima de un hedor de mala IA que no debería haberse diseñado ni lanzado.

Resulta que no todo el mundo ha recibido ese memorándum, por así decirlo.

La ética de la IA solo está ganando terreno gradualmente.

Algunos creen que, inevitablemente, podría ser necesario el brazo largo de la ley para inspirar aún más la adopción de enfoques de IA ética.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes distintivas para regir los diversos desarrollos y usos de la IA. De hecho, se están promoviendo nuevas leyes a nivel internacional, federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es medido. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. De hecho, advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales. Ver por ejemplo mi cobertura en el enlace aquí y el enlace aquí.

Asegurémonos de que todos estemos en la misma página sobre lo que contienen los conceptos básicos de la ética de la IA.

En la cobertura de mi columna, he discutido previamente varios análisis colectivos de los principios de ética de la IA, como esta evaluación en el enlace aquí, que ofrece una útil lista clave de criterios o características éticos de IA con respecto a los sistemas de IA:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

Un medio para tratar de introducir y mantener una atención sostenida con respecto al uso de los preceptos de ética de la IA puede emprenderse parcialmente mediante el establecimiento de una junta asesora de ética de la IA.

A continuación, desglosaremos las facetas del consejo asesor de ética de la IA.

Consejos de ética de IA y cómo hacerlo bien

Las empresas pueden estar en varias etapas de adopción de IA y, del mismo modo, en diferentes etapas de adopción de la ética de IA.

Imagine una empresa que quiera empezar a adoptar la ética de la IA, pero que no esté segura de cómo hacerlo. Otro escenario podría ser una empresa que ya ha incursionado en la ética de la IA, pero parece no estar segura de lo que se debe hacer para promover el esfuerzo. Un tercer escenario podría ser una empresa que ha estado diseñando y utilizando activamente la IA e internamente ha hecho mucho para incorporar la ética de la IA, aunque se dan cuenta de que existe la posibilidad de que se estén perdiendo otros conocimientos, quizás debido al pensamiento grupal interno.

Para cualquiera de esos escenarios, podría ser prudente establecer un consejo asesor de ética de IA.

La noción es bastante sencilla (bueno, para aclarar, la noción general es la proverbial punta del iceberg y el diablo está ciertamente en los detalles, como cubriremos momentáneamente).

Una junta asesora de ética de AI generalmente consta principalmente de asesores externos a los que se les pide que formen parte de una junta o comité asesor especial para la empresa. También puede haber algunos participantes internos incluidos en la junta, aunque por lo general la idea es obtener asesores de fuera de la empresa y eso puede aportar una perspectiva semi-independiente de lo que está haciendo la empresa.

Digo semi-independiente ya que sin duda habrá algunos posibles conflictos de independencia que pueden surgir con los miembros elegidos del consejo asesor de ética de AI. Si la firma está pagando a los asesores, surge la pregunta obvia de si los miembros pagados se sienten dependientes de la firma para un cheque de pago o si pueden sentirse incómodos criticando el caballo de regalo que tienen en la mano. Por otro lado, las empresas están acostumbradas a utilizar asesores externos pagados para todo tipo de opiniones independientes consideradas, por lo que esto es algo habitual y esperado de todos modos.

Por lo general, se solicita a la junta asesora de ética de AI que se reúna periódicamente, ya sea en persona o de forma virtual remota. Son utilizados como caja de resonancia por la empresa. También es probable que los miembros reciban varios documentos internos, informes y memorandos sobre los esfuerzos en marcha relacionados con la IA en la empresa. Es posible que se solicite a determinados miembros de la junta asesora de ética de AI que asistan a reuniones internas según corresponda a su experiencia específica. Etc.

Además de ser capaz de ver lo que está pasando con la IA dentro de la empresa y proporcionar nuevos ojos, el consejo asesor de ética de la IA por lo general tiene la doble función de ser un proveedor de afuera hacia adentro de lo último en IA e IA ética. Es posible que los recursos internos no tengan tiempo para profundizar en lo que sucede fuera de la empresa y, por lo tanto, pueden obtener puntos de vista de última generación muy enfocados y personalizados de los miembros de la junta asesora de ética de AI.

También existen los usos internos y externos de un consejo asesor de ética de IA.

Esto puede ser complicado.

El concepto es que el consejo asesor de ética de la IA se utiliza para que el mundo exterior sepa lo que está haciendo la empresa en lo que respecta a la IA y la ética de la IA. Esto puede ser útil como medio para reforzar la reputación de la empresa. Los productos y servicios con infusión de IA pueden percibirse como más confiables debido al sello dorado de aprobación del consejo asesor de ética de IA. Además, los llamados para que la empresa haga más sobre la IA ética pueden atenuarse un poco al señalar que la empresa ya está utilizando un consejo asesor de ética de la IA.

Las preguntas que la empresa que utiliza dicho mecanismo suele presentar ante un consejo asesor de ética de AI suelen incluir:

  • ¿Debería la empresa usar IA para un producto o servicio en particular, o parece demasiado preocupante?
  • ¿La empresa tiene en cuenta la gama completa de consideraciones de ética de IA en sus esfuerzos de IA?
  • ¿Ha caído la empresa en el pensamiento de grupo y no quiere o no puede ver las caídas potencialmente perturbadoras de la ética de la IA que esperan estos esfuerzos?
  • ¿Qué tipo de enfoques más recientes para la ética de la IA debería tratar de adoptar la empresa?
  • ¿Sería factible ofrecer elogios externos por nuestros esfuerzos de ética de la IA y el compromiso con los mismos?
  • Otro

Aprovechar un consejo asesor de ética de IA sin duda tiene sentido y las empresas han ido cada vez más por este camino.

Tenga en cuenta que hay otra cara de esta moneda.

Por un lado de la moneda, los consejos asesores de ética de la IA pueden ser la siguiente mejor opción desde el pan rebanado. No descuide la otra cara de la moneda, es decir, también pueden ser un dolor de cabeza monumental y es posible que se arrepienta de haberse desviado hacia este territorio arriesgado (como verá en esta discusión, las desventajas se pueden manejar, si sabe lo que quiere). estás haciendo).

Las empresas están comenzando a darse cuenta de que pueden encontrarse en un lío cuando optan por seguir la ruta de la junta asesora de ética de IA. Se podría afirmar que esta maquinación es algo así como jugar con fuego. Verá, el fuego es un elemento muy poderoso que puede usar para cocinar, protegerlo de los depredadores mientras está en la naturaleza, mantenerlo caliente, traer luz y proporcionar una gran cantidad de beneficios prácticos y vitales.

El fuego también puede quemarte si no puedes manejarlo bien.

Ha habido varios titulares de noticias recientes que demuestran vívidamente los peligros potenciales de tener un consejo asesor de ética de IA. Si un miembro decide sumariamente que ya no cree que la empresa esté realizando las actividades correctas de IA ética, el miembro descontento podría renunciar enfadado. Suponiendo que es probable que la persona sea muy conocida en el campo de la IA o en la industria, su salto de barco seguramente atraerá la atención de los medios.

Una empresa entonces tiene que ir a la defensiva.

¿Por qué se fue el miembro?

¿Qué está tramando nefastamente la empresa?

Algunas empresas requieren que los miembros del consejo asesor de ética de AI firmen NDA (acuerdos de confidencialidad), que aparentemente protegerán a la empresa si el miembro decide volverse "pícaro" y destrozar la empresa. Sin embargo, el problema es que incluso si la persona permanece relativamente en silencio, es probable que se reconozca que ya no forma parte del consejo asesor de ética de AI. Esto, por sí mismo, generará todo tipo de preguntas sorprendentes.

Además, incluso si existe una NDA, a veces el miembro intentará eludir las disposiciones. Esto podría incluir referirse a "estudios de casos" genéricos guiño-guiño sin nombre para resaltar las anomalías de ética de IA que creen que la empresa estaba realizando insidiosamente.

El miembro caído podría ser totalmente descarado y salir directamente nombrando sus preocupaciones sobre la empresa. Si se trata de una violación clara de la NDA es algo quizás menos crucial que el hecho de que se está corriendo la voz de los escrúpulos de la IA ética. Una empresa que intenta demandar al miembro por incumplimiento de la NDA puede traer agua caliente brutalmente sobre sí misma, avivando la atención adicional a la disputa y pareciendo ser el clásico duelo de David contra Goliat (la empresa es el gran "monstruo").

Algunos altos ejecutivos asumen que simplemente pueden llegar a un acuerdo financiero con cualquier miembro de la junta asesora de ética de AI que sienta que la empresa está haciendo las cosas mal, como ignorar o minimizar las preocupaciones expresadas.

Esto podría no ser tan fácil como se supone.

A menudo, los miembros tienen una mentalidad devotamente ética y no retrocederán fácilmente de lo que perciben como una lucha ética de lo correcto contra lo incorrecto. También pueden ser financieramente estables y no estar dispuestos a eliminar sus preceptos éticos o pueden tener otro empleo que permanece intacto por haber dejado el consejo asesor de ética de AI.

Como puede ser evidente, algunos se dan cuenta más tarde de que un consejo asesor de ética de la IA es un arma de doble filo. Hay un tremendo valor y una percepción importante que un grupo así puede transmitir. Al mismo tiempo, estás jugando con fuego. Podría ser que un miembro o miembros decidan que ya no creen que la empresa esté haciendo un trabajo de IA ético creíble. En las noticias ha habido indicios de que, en ocasiones, todo un consejo asesor de ética de AI renuncia al mismo tiempo, o tiene una preponderancia de miembros que anuncian que se van.

Esté preparado para lo bueno y los problemas que puedan surgir con los consejos asesores de ética de AI.

Por supuesto, hay momentos en que las empresas no están haciendo lo correcto en lo que respecta a la ética de la IA.

Por lo tanto, esperamos que una junta asesora de ética de la IA en esa empresa dé un paso al frente para dar a conocer esto, presumiblemente internamente dentro de la empresa primero. Si la empresa continúa por el mal camino percibido, los miembros ciertamente parecerán obligados éticamente (posiblemente también legalmente) a tomar otras medidas que consideren apropiadas (los miembros deben consultar a su abogado personal para obtener dicho asesoramiento legal). Podría ser que esta sea la única forma de lograr que la empresa cambie sus formas. Una acción drástica por parte de un miembro o conjunto de miembros podría parecer el último recurso que los miembros esperan cambie el rumbo. Además, es probable que esos miembros no quieran ser parte de algo que creen fervientemente que se ha desviado de la ética de AI.

Una forma útil de considerar estas posibilidades es la siguiente:

  • La firma se está desviando, el miembro opta por salir debido a una percepción de falta de cumplimiento de la firma
  • La empresa no se está desviando, pero el miembro cree que la empresa sí lo está y, por lo tanto, sale debido a una percepción de falta de cumplimiento.

El mundo exterior no necesariamente sabrá si el miembro que sale tiene una base de buena fe para preocuparse por la empresa o si podría ser algo idiosincrático o una mala impresión del miembro. También existe la posibilidad bastante directa de que un miembro deje el grupo debido a otros compromisos o por razones personales que no tienen nada que ver con lo que está haciendo la empresa.

La esencia es que es importante que cualquier empresa que adopte una junta asesora de ética de IA piense detenidamente en toda la gama de fases del ciclo de vida asociadas con el grupo.

Con toda esa charla sobre aspectos problemáticos, no quiero dar la impresión de que me mantengo alejado de tener un consejo asesor de ética de IA. Ese no es el mensaje. La verdadera esencia es tener un consejo asesor de ética de IA y asegurarse de hacerlo de la manera correcta. Haz de eso tu preciado mantra.

Estos son algunos de los beneficios mencionados con frecuencia de un consejo asesor de ética de IA:

  • Tenga a mano un medio para hacer rebotar proyectos e ideas de IA de un grupo privado semi-independiente
  • Aprovechar la experiencia en ética de la IA que proviene de fuera de la empresa
  • Trate de evitar las carcajadas de ética de AI y los desastres absolutos por parte de la empresa.
  • Ser un impulsor de relaciones públicas para la empresa y sus sistemas de IA.
  • Desglose del pensamiento grupal interno sobre la IA y la ética de la IA
  • Obtenga una nueva mirada a las innovaciones de IA y su practicidad
  • Mejorar la posición y la estatura de la empresa.
  • Servir como una voz desenfrenada para cuando los esfuerzos firmes de IA estén deteriorados
  • Otro

Aquí hay formas comunes en que las empresas se equivocan y socavan su junta asesora de ética de IA (¡no haga esto!):

  • Proporcionar instrucciones vagas y confusas en cuanto a la misión y el propósito.
  • Solo consultado con moderación y, a menudo, inoportuno después de que el caballo ya está fuera del establo.
  • mantenido en la oscuridad
  • Información muy filtrada que proporciona una representación engañosa de las cosas.
  • Utilizado únicamente como escaparate y sin ningún otro objetivo de producción de valor.
  • No está permitido hacer ninguna apariencia de exploración sobre asuntos internos.
  • Privados de suficientes recursos para realizar su trabajo suficientemente
  • Falta de liderazgo explícito dentro del grupo.
  • Falta de atención por parte de la dirección de la firma respecto al grupo
  • Se espera que dé una aprobación ciega a cualquier cosa que se presente.
  • Al azar en cuanto a los miembros elegidos
  • Tratado con poco respeto y aparentemente una mera marca de verificación.
  • Otro

Otro problema que con frecuencia genera confusión tiene que ver con la naturaleza y el comportamiento de los diversos miembros que forman parte de un consejo asesor de ética de AI, que a veces puede ser problemático de las siguientes maneras:

  • Algunos miembros pueden ser solo conceptualizadores de la ética de la IA en lugar de versados ​​en la ética de la IA como práctica y, como tales, brindan conocimientos minimalistas sobre negocios.
  • Algunos pueden ser grandilocuentes cuando se trata de la ética de la IA y son extraordinariamente difíciles de tratar durante su participación.
  • Las luchas internas pueden convertirse en una distracción importante, a menudo choques de grandes egos, y hacer que el grupo se vuelva disfuncional.
  • Algunos pueden estar demasiado ocupados y comprometidos de tal manera que se mantienen al margen del esfuerzo de asesoramiento sobre ética de AI.
  • Algunos tienen una opinión inquebrantable profundamente arraigada sobre la ética de la IA que es inflexible y poco realista.
  • Algunos son propensos a consideraciones emocionales en lugar de analíticas y sistémicas que subyacen a la ética de la IA.
  • Puede ser similar al famoso adagio de ser como una manada de gatos que no se concentran y deambulan sin rumbo
  • Otro

Algunas empresas simplemente parecen crear una junta asesora de ética de IA sobre una base un tanto caprichosa. Ningún pensamiento va hacia los miembros a ser seleccionados. No se piensa en lo que cada uno trae a la mesa. No se piensa en la frecuencia de las reuniones ni en cómo se llevarán a cabo. No se piensa en dirigir el consejo asesor de ética de AI, en total. Etc.

En cierto sentido, por su propia falta de ingenio, es probable que esté poniendo en marcha un tren descarrilado.

No hagas eso.

Quizás esta lista de los cosas correctas que hacer ahora es ostensiblemente obvio para usted basado en el discurso hasta ahora, pero tal vez le sorprenda saber que pocas empresas parecen hacerlo bien:

  • Identificar explícitamente la misión y el propósito del consejo asesor de ética de AI
  • Asegúrese de que el grupo reciba la atención adecuada de alto nivel ejecutivo
  • Identificar el tipo de miembros que serían más adecuados para el grupo.
  • Acérquese a los miembros deseados y determine el ajuste para el grupo
  • Hacer arreglos adecuados con los miembros elegidos.
  • Establecer la logística de las reuniones, frecuencia, etc.
  • Determinar las funciones de los miembros, el alcance y la profundidad.
  • Anticipar los recursos internos necesarios para ayudar al grupo.
  • Asignar recursos suficientes para el propio grupo.
  • Mantener el consejo asesor de ética de la IA activo e informado
  • Tener escaladas preplanificadas para cuando surjan inquietudes
  • Indique cómo se manejarán los incidentes de emergencia o crisis
  • Gire los miembros hacia adentro o hacia afuera según sea necesario para mantener la mezcla adecuada
  • Previamente han previsto caminos de salida para los miembros.
  • Otro

Conclusión

Hace algunos años, muchos de los fabricantes de automóviles y empresas de tecnología de conducción autónoma que se están embarcando en el diseño de vehículos autónomos basados ​​en IA se vieron repentinamente impulsados ​​a adoptar juntas asesoras de ética de IA. Hasta ese momento, parecía haber poca conciencia de tener un grupo así. Se asumió que el enfoque interno en IA ética sería suficiente.

He discutido extensamente en mi columna los diversos errores o descuidos desafortunados de la ética de la IA que a veces han llevado a problemas con los autos que conducen por sí mismos, como contratiempos vehiculares menores, colisiones automovilísticas manifiestas y otras calamidades. Consulte mi cobertura en el enlace aquí. La importancia de la seguridad de la IA y protecciones similares debe ser la consideración más importante para quienes fabrican vehículos autónomos. Los consejos asesores de ética de la IA en este nicho están ayudando a mantener la seguridad de la IA como una prioridad fundamental.

Mi forma favorita de expresar este tipo de revelación sobre la ética de la IA es comparar el asunto con los terremotos.

Los californianos están sujetos a terremotos de vez en cuando, a veces bastante fuertes. Podría pensar que estar preparado para un terremoto sería una consideración siempre presente. No tan. El ciclo funciona de esta manera. Ocurre un terremoto sustancial y se le recuerda a la gente que debe estar preparada para un terremoto. Por un corto tiempo, hay prisa por emprender tales preparativos. Después de un tiempo, la atención a esto se desvanece. Los preparativos se quedan en el camino o se descuidan. Boom, golpea otro terremoto, y todos aquellos que deberían haber estado preparados son tomados "desprevenidos" como si no se hubieran dado cuenta de que algún día podría ocurrir un terremoto.

Las empresas a menudo hacen lo mismo con respecto a los consejos asesores de ética de la IA.

No inician uno y luego, de repente, ante una catástrofe en su IA, son impulsados ​​a la acción de manera reactiva. Inician débilmente una junta asesora de ética de IA. Tiene muchos de los problemas que he citado anteriormente aquí. El consejo asesor de ética de AI se desmorona. Vaya, una nueva calamidad de IA dentro de la empresa vuelve a despertar la necesidad de un consejo asesor de ética de IA.

Lave, enjuague y repita.

Las empresas definitivamente descubren que a veces tienen una relación de amor y odio con los esfuerzos de su junta asesora de ética de IA. Cuando se trata de hacer las cosas bien, el amor está en el aire. Cuando se trata de hacer las cosas mal, el odio brota ferozmente. Asegúrese de hacer lo necesario para mantener el amor y evitar el odio cuando se trata de establecer y mantener un consejo asesor de ética de IA.

Convirtamos esto en una relación amor-amor.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-have-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/