La ética de la IA está alarmada por el aumento en el consumo de jugos clandestinos o el dopaje del aprendizaje automático de la IA por parte de personas de confianza, incluidos los autos autónomos autónomos

Jugos y dopaje.

Dopaje y jugos.

Todos conocemos el uso continuo y subrepticio de drogas para mejorar el rendimiento que lamentablemente se utilizan en varios deportes. Esto ocurre en el deporte profesional e incluso en el deporte amateur. Ocurre en los Juegos Olímpicos, que en teoría es una competencia reverenciada a nivel mundial que se supone que es un ejemplo de pureza de los límites del rendimiento humano y los extremos más altos de toda la humanidad.

Hay una especie de omnipresencia en el acto de exprimir y dopar. Las figuras deportivas están bajo una tremenda presión para alcanzar el primer lugar y están seductoramente tentadas a usar cualquier medio que puedan para llegar allí. Como resultado de la probabilidad de hacer jugo o doparse, hemos visto que muchos, si no la mayoría de los deportes, han instituido procedimientos y medidas que apuntan a disuadir y atrapar a aquellos que se apegan erróneamente a tales esfuerzos. Si alguien es atrapado con jugo o dopaje, corre el riesgo de que le revoquen sus medallas deportivas. Además, es probable que sus partidarios y patrocinadores los dejen de lado. Un tremendo sentido de riesgo reputacional va de la mano con el acto arriesgado de consumir jugo o doparse.

Las personas que desean ser las "mejores" en un deporte en particular se debaten entre no usar drogas para mejorar el rendimiento y optar por usar sustancias ilegales o al menos no éticas. Usar las drogas puede ser una forma casi segura de llegar a la cima. Si se administra a escondidas y con mucha atención, existe la posibilidad de que nadie lo sepa y la prueba no lo detecte. Puedes salirte con la tuya, aparentemente impune. Por supuesto, también existe la posibilidad de que esté dañando su cuerpo y eventualmente pague un precio físico, pero la intensidad del deseo por la oportunidad de ganar en el momento tiende a restar importancia a las consecuencias futuras.

Por lo tanto, tenemos, por un lado, el grandioso potencial de alcanzar una gran gloria y tal vez incluso riqueza mediante el uso de drogas para mejorar el rendimiento, mientras que, por otro lado, tenemos la vergonzosa posibilidad de ser atrapados y ser despojados de las ganancias ganadas con tanto esfuerzo. y convertirse en una figura pública mundial horriblemente despreciada (junto con las consecuencias adversas relacionadas con la salud también).

Ese es algún tipo de análisis sustancial de costo-beneficio que debe hacerse.

Algunos hacen el cálculo mental del ROI (retorno de la inversión) y deciden no tocar nunca ninguna de las drogas para mejorar el rendimiento. Resuelven permanecer perfectamente limpios y puros. Otros pueden comenzar de esa manera y luego desviarse un poco. Puede justificar el resbalón como solo un pequeño dedo del pie en las aguas de mejora del rendimiento y jurarse solemnemente a sí mismo que nunca volverá a hacerlo. Sin embargo, esto puede conducir a una pendiente resbaladiza. La clásica y predecible bola de nieve proverbial que se desliza, se desliza y rueda por la ladera nevada, convirtiéndose en una bola cada vez más grande.

También están aquellos que deciden por adelantado que seguirán adelante y usarán drogas para mejorar el rendimiento. Un modo típico de pensar es que es la única forma de combatir el fuego con fuego. La suposición que se hace es que todos los demás con los que estás compitiendo están haciendo lo mismo. Como tal, no tiene absolutamente ningún sentido que seas puro y, sin embargo, vayas en contra de aquellos que son obviamente impuros (así lo supones).

Creo que puede ver por qué la naturaleza de las pruebas y la detección es especialmente vital en estos asuntos. Si algunos participantes pueden salirse con la suya con el uso de drogas para mejorar el rendimiento, estropea todo el barril. Centímetro a centímetro, todos los demás participantes seguramente seguirán el mismo camino. Tienen que hacer una elección horrible. Esto implica competir sin las drogas, pero probablemente con una desventaja física, o tienen que adoptar las drogas y seguir siendo competitivos, a pesar de quererlo con todo su corazón y no tener que recurrir a los potenciadores del rendimiento.

Un dilema, sin duda.

Hay más ambiente que confunde estas circunstancias. Por ejemplo, una pregunta que surge continuamente es qué es en realidad una droga para mejorar el rendimiento. Las autoridades podrían presentar una lista de las drogas prohibidas. Mientras tanto, en una táctica del gato y el ratón, se diseñan o identifican otras drogas que proporcionarán mejoras en el rendimiento y, sin embargo, no están en la lista de productos químicos prohibidos. Puede tratar de mantenerse un paso por delante de la lista, cambiando a otras drogas y permaneciendo delgado dentro de las reglas del juego.

La esencia general es que los jugos y el dopaje no son un tema necesariamente sencillo. Sí, todos podemos estar de acuerdo en que los jugos o el dopaje son atroces y no deben llevarse a cabo. Sí, todos podríamos estar de acuerdo en que debería haber reglas estrictas sobre no consumir jugos ni doparse, junto con esfuerzos estridentes para atrapar a los que se desvían. Desafortunadamente, hay muchos trucos que pueden socavar esos elevados objetivos.

¿Por qué he compartido con ustedes las pruebas y tribulaciones de los jugos y el dopaje?

Lo hago por una razón que podría resultarle sorprendente, irritante, perturbadora y, en conjunto, desgarradora.

Verá, cada vez hay más afirmaciones vocales de que la IA a veces está "mejorando el rendimiento" mediante el uso de jugos o dopaje (de algún tipo). La noción es que al diseñar un sistema de IA, los desarrolladores pueden emprender estratagemas un tanto solapadas para hacer que la IA parezca mejor de lo que realmente es. Esto, a su vez, puede engañar a otros para que asuman que la IA tiene capacidades que realmente no tiene. Las consecuencias pueden ser leves o pueden ser peligrosamente graves.

Imagine un sistema de inteligencia artificial que juega a las damas que fue (digamos) "rendimiento mejorado" para parecer como si nunca fuera a perder un juego de damas. Algunos inversores acumulan una tonelada de dinero en el juego, bajo la falsa creencia de que la IA siempre ganará. Después de ser puesto en uso público, la IA gana y gana. En algún momento, tal vez pierda un juego. Jejeje, que paso? En cualquier caso, no es probable que esto sea una consideración de vida o muerte en este caso de uso.

Imagine, en cambio, un sistema de inteligencia artificial que conduce un automóvil autónomo. La IA tiene un "rendimiento mejorado" para que parezca que puede conducir de manera segura y sin incidentes. Durante un tiempo, el automóvil autónomo se usa en la vía pública y todo parece estar bien. Lamentablemente, en algún momento, la IA se extravía y ocurre un accidente automovilístico que claramente fue culpa del sistema de IA. Los seres humanos pueden resultar heridos y pueden surgir muertes. Esta es una situación en la que el jugo o el dopaje de la IA tiene consecuencias aleccionadoras y graves de vida o muerte.

Me doy cuenta de que podría tener cierta acidez estomacal al referirse a los jugos y el dopaje cuando se trata de IA. Digo esto porque la IA de hoy en día no es consciente en absoluto y debemos ser cautelosos al antropomorfizar la IA, sobre lo cual estaré elaborando más adelante en este documento. En resumen, la IA no es un ser humano ni nada parecido a ser humano, todavía. Tratar de comparar los dos y alinearse con la conceptualización convencional de jugo o dopaje es algo incompleto y debe hacerse con los ojos bien abiertos.

Voy a continuar con la idea análoga sugerida de exprimir y dopar la IA, aunque les pido que tengan en cuenta que esto es algo que no debe llevarse demasiado lejos. De alguna manera, podemos apoyarnos razonablemente en la redacción como un medio para exponer aspectos que, diría yo, son muy necesarios para ser expuestos. Esa es una base viable para usar los eslóganes. Pero no debemos extender esto a los reinos inferiores y convertirlo en algo que no es. Diré más sobre esto momentáneamente.

Una faceta de la IA que está recibiendo la mayor atención sobre el uso de jugos y el dopaje relacionados con la IA implica ciertas formas en que algunos desarrolladores están creando sistemas de aprendizaje automático (ML) y aprendizaje profundo (DL) basados ​​en IA. Hay muchas ramificaciones de la ética de la IA y la IA ética relacionadas con este tipo de acciones nefastas durante el desarrollo de los sistemas ML/DL. Para conocer mi cobertura continua y extensa de la ética de la IA y la IA ética, consulte el enlace aquí y el enlace aquí, sólo para nombrar unos pocos.

También mantengamos nuestras cabezas fuera del agua y subraye estas facetas a medida que avanza en esta discusión:

  • No todos los que están diseñando AI ML/DL están haciendo jugo o dopando el ML/DL
  • Algunos lo hacen, pero no son especialmente conscientes de que están haciendo algo mal.
  • Algunos lo hacen y saben exactamente lo que están haciendo en cuanto a exprimir o dopar el ML/DL.
  • A diferencia del campo de los deportes, hay muy pocas "pruebas o detección" formales, estandarizadas y generalizadas de este tipo de asuntos para el LD/LD contemporáneo.
  • Las consecuencias adversas de hacer esto pueden variar significativamente según la naturaleza del ML/DL (p. ej., IA jugando a las damas, IA conduciendo un automóvil autónomo).
  • Algunos argumentan que no hay nada intrínsecamente impropio en estos actos.
  • Las definiciones de lo que es o no jugos o dopaje de ML/DL están por todo el mapa
  • La ética de la IA está lidiando con la mejor manera de lidiar con la tendencia aparentemente emergente

Me gustaría aclarar otro giro en este tema. Les pido que tengan paciencia conmigo en esto. De alguna manera, algunos malinterpretan completamente el asunto y caen en una forma extraña de pensar que los desarrolladores de IA están tomando drogas para mejorar el rendimiento y, por lo tanto, esta es una discusión sobre humanos que están haciendo jugos y dopando.

Eso por lo general hace que varios desarrolladores de IA se rían un poco.

Para ser muy claro, eso no es a lo que me refiero. Me enfoco clara y únicamente en el llamado jugo y dopaje de la IA en sí, y no en los humanos que diseñan la IA. Habiendo dicho eso, no estoy diciendo que no sea posible que haya desarrolladores de IA que de alguna manera opten por tomar drogas para mejorar el rendimiento por cualquier razón por la que opten por hacerlo. Parecería dudoso que exista una analogía deportiva completamente adecuada comparable al acto de los desarrolladores de IA que tal vez decidan tomar drogas ilícitas para mejorar el rendimiento, pero eso se lo dejo a otros investigadores que deseen explorar ese ámbito. Simplemente diría que tomar cualquier droga para mejorar el rendimiento por cualquier motivo no es prudente y definitivamente podría ser ilegal, poco ético y muy desaconsejado.

Confío en que eso ayude a aclarar las cosas.

Antes de entrar en más carne y papas sobre el jugo y el dopaje de la IA, establezcamos algunos fundamentos adicionales sobre temas profundamente integrales. Deberíamos sumergirnos en el campo de la ética de la IA y el ML/DL para preparar el escenario de manera adecuada.

Es posible que sepa vagamente que una de las voces más fuertes en estos días en el campo de la IA e incluso fuera del campo de la IA consiste en clamar por una mayor apariencia de IA ética. Echemos un vistazo a lo que significa referirse a la ética de la IA y la IA ética. Además de eso, exploraremos a qué me refiero cuando hablo de Machine Learning y Deep Learning.

Un segmento o parte particular de la ética de la IA que ha recibido mucha atención de los medios consiste en la IA que exhibe sesgos e inequidades desfavorables. Es posible que sepa que cuando se puso en marcha la última era de la IA hubo un gran estallido de entusiasmo por lo que algunos ahora llaman AI para siempre. Desafortunadamente, inmediatamente después de esa emoción efusiva, comenzamos a presenciar AI para mal. Por ejemplo, se ha revelado que varios sistemas de reconocimiento facial basados ​​en IA contienen sesgos raciales y de género, que he discutido en el enlace aquí.

Esfuerzos para luchar contra AI para mal están en marcha activamente. además de vociferante legal búsquedas de controlar las irregularidades, también hay un impulso sustancial para adoptar la ética de la IA para corregir la vileza de la IA. La noción es que debemos adoptar y respaldar los principios clave de la IA ética para el desarrollo y el despliegue de la IA, haciéndolo así para socavar la AI para mal y simultáneamente anunciando y promoviendo lo preferible AI para siempre.

En una noción relacionada, soy un defensor de tratar de usar la IA como parte de la solución a los problemas de la IA, combatiendo fuego con fuego de esa manera de pensar. Podríamos, por ejemplo, incorporar componentes de IA ética en un sistema de IA que monitoreará cómo el resto de la IA está haciendo las cosas y, por lo tanto, potencialmente detectará en tiempo real cualquier esfuerzo discriminatorio, vea mi discusión en el enlace aquí. También podríamos tener un sistema de IA separado que actúe como un tipo de monitor de ética de IA. El sistema de IA sirve como un supervisor para rastrear y detectar cuándo otra IA está entrando en el abismo poco ético (ver mi análisis de tales capacidades en el enlace aquí).

En un momento, compartiré con ustedes algunos principios generales que subyacen a la ética de la IA. Hay muchos de este tipo de listas flotando aquí y allá. Se podría decir que todavía no existe una lista singular de atractivo y concurrencia universal. Esa es la noticia desafortunada. La buena noticia es que al menos hay listas de ética de IA fácilmente disponibles y tienden a ser bastante similares. En total, esto sugiere que, mediante una especie de convergencia razonada, estamos encontrando nuestro camino hacia una comunidad general de en qué consiste la ética de la IA.

Primero, cubramos brevemente algunos de los preceptos generales de IA ética para ilustrar lo que debería ser una consideración vital para cualquier persona que elabore, despliegue o use IA.

Por ejemplo, como afirma el Vaticano en el Llamamiento de Roma a la ética de la IA y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos primarios de IA identificados:

  • Transparencia: En principio, los sistemas de IA deben ser explicables
  • Inclusión: Las necesidades de todos los seres humanos deben ser tenidas en cuenta para que todos puedan beneficiarse y todas las personas puedan tener las mejores condiciones posibles para expresarse y desarrollarse.
  • Responsabilidad: Quienes diseñan y despliegan el uso de la IA deben proceder con responsabilidad y transparencia
  • Imparcialidad: No cree ni actúe de acuerdo con prejuicios, salvaguardando así la equidad y la dignidad humana.
  • Fiabilidad: Los sistemas de IA deben poder funcionar de manera confiable
  • Seguridad y privacidad: Los sistemas de IA deben funcionar de forma segura y respetar la privacidad de los usuarios.

Según lo declarado por el Departamento de Defensa de los Estados Unidos (DoD) en su Principios éticos para el uso de la inteligencia artificial y como he cubierto en profundidad en el enlace aquí, estos son sus seis principios éticos principales de IA:

  • Responsable: El personal del DoD ejercerá los niveles apropiados de juicio y cuidado sin dejar de ser responsable del desarrollo, implementación y uso de las capacidades de IA.
  • Equitativo: El Departamento tomará medidas deliberadas para minimizar el sesgo no deseado en las capacidades de IA.
  • Trazable: Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluidas metodologías transparentes y auditables, fuentes de datos y procedimientos y documentación de diseño.
  • De confianza: Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de sus ciclos de vida completos.
  • Gobernable: El Departamento diseñará y diseñará capacidades de IA para cumplir con las funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas implementados que demuestren un comportamiento no deseado.

También he discutido varios análisis colectivos de los principios éticos de la IA, incluido haber cubierto un conjunto ideado por investigadores que examinaron y condensaron la esencia de numerosos principios éticos nacionales e internacionales de la IA en un artículo titulado "El panorama global de las pautas éticas de la IA" (publicado en Naturaleza), y que mi cobertura explora en el enlace aquí, lo que condujo a esta lista clave:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Como puede adivinar directamente, tratar de precisar los detalles que subyacen a estos principios puede ser extremadamente difícil de hacer. Más aún, el esfuerzo por convertir esos principios generales en algo completamente tangible y lo suficientemente detallado como para usarse cuando se crean sistemas de IA también es un hueso duro de roer. En general, es fácil hacer algunas sugerencias sobre qué son los preceptos de ética de la IA y cómo deben observarse en general, mientras que es una situación mucho más complicada en la codificación de la IA que tiene que ser la verdadera goma que se encuentra en el camino.

Los principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que, en última instancia, implementan y realizan el mantenimiento de los sistemas de IA. Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se dijo anteriormente, se necesita un pueblo para diseñar y poner en práctica la IA, y para lo cual todo el pueblo debe conocer y cumplir los preceptos de ética de la IA.

También asegurémonos de estar en la misma página sobre la naturaleza de la IA actual.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre sensible AI, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Mantengamos las cosas más realistas y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones del ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Volvamos ahora al tema de la IA o el dopaje.

En un reciente artículo publicado en Ciencia: revista, el jugo o el dopaje de Machine Learning y Deep Learning surgió en el contexto de los esfuerzos de los desarrolladores de IA que buscan obtener altas calificaciones en los puntos de referencia de ML/DL: “La búsqueda de puntajes altos puede conducir al equivalente de dopaje en IA. Los investigadores a menudo modifican y aprovechan los modelos con configuraciones de software o hardware especiales que pueden variar de una ejecución a otra en el punto de referencia, lo que da como resultado un rendimiento del modelo que no es reproducible en el mundo real. Peor aún, los investigadores tienden a elegir entre puntos de referencia similares hasta que encuentran uno en el que su modelo se destaca” (Ciencia:, “Taught To The Test” de Matthew Hutson, mayo de 2022).

Podría comparar la situación de referencia de ML/DL que involucra el consumo de jugos con los puntos anteriores sobre tratar de ganar en competencias deportivas a través de tales prácticas adversas.

En el ámbito de la IA, existe una apariencia de competencia para ver quién puede llegar a los "mejores" modelos ML/DL. Se pueden usar varios puntos de referencia para ejecutar un ML/DL y medir qué tan bien parece obtener el ML/DL en el punto de referencia. Las tablas de clasificación y el intercambio informal de resultados de referencia se utilizan a menudo para promocionar quién ha logrado la última posición más alta con sus configuraciones ML/DL. Podría sugerir razonablemente que un mínimo de fama y fortuna espera a aquellos que pueden diseñar su ML/DL para ser el "ganador" como el último y mejor actor en los puntos de referencia.

Pero al igual que cualquier tipo de competencia, hay formas de tratar de engañar a su ML/DL para que parezca tener un desempeño excelente en un punto de referencia a pesar de que se están aplicando trucos bajo el capó. Esta es la corrupción clásica de apuntar a obtener una buena puntuación en una prueba perfeccionando su enfoque de la prueba, mientras que se supone que el principio general es que está tratando de determinar el rendimiento general.

Imagine dar una prueba a alguien que pretende medir su comprensión general de, por ejemplo, la literatura estadounidense, pero el examinado se da cuenta de que las preguntas solo se centrarán en Mark Twain. Por lo tanto, el examinado estudia solo las obras de Mark Twain y obtiene una puntuación inmensa en la prueba. El tomador de la prueba proclama con orgullo que superó la prueba y, por lo tanto, obviamente es un cerebrito sobre toda la literatura estadounidense. En realidad, simplemente perfeccionaron la prueba y, en cierto sentido, engañaron el proceso de prueba.

Me doy cuenta de que algunos podrían señalar inmediatamente con el dedo a la prueba y a quien haya preparado la prueba. Si el creador de la prueba fue lo suficientemente denso como para permitir que los examinados aprovechen la prueba, podría argumentar que esto está completamente sobre los hombros del creador de la prueba y no del examinado. El examinado hizo todo lo que pudo para prepararse para el examen, incluso averiguar qué le convendría estudiar. Esto no solo está aparentemente permitido, sino que también puede felicitar a la persona que rinde el examen por haber burlado al creador del examen.

No profundizaré más en ese abismo ético aquí. Puede dar vueltas y vueltas fácilmente sobre un tema así. Digamos simplemente que el espíritu de los puntos de referencia de ML/DL es que se espera o se supone que aquellos que utilizan los puntos de referencia lo hagan de manera deportiva. Esto puede parecer ingenuo para algunos, mientras que puede parecer honesto y apropiado para otros.

Espero que pueda ver de inmediato cómo las consideraciones sobre la ética de la IA y la ética de la IA surgen naturalmente en ese contexto.

Considere, por ejemplo, que un ML/DL dado se desempeña extremadamente bien en un punto de referencia y que la base para el puntaje elevado se debe a la manipulación o el dopaje de la IA. Supongamos además que los desarrolladores de IA del ML/DL “ganador” no revelan que le dieron jugo a la IA. Otros desarrolladores de IA escuchan o leen los resultados del rendimiento de ML/DL y se entusiasman con un aparente avance en AI ML/DL. Desgraciadamente, desconocen los jugos ocultos o el dopaje de la IA.

Esos desarrolladores de IA eufóricos optan por cambiar sus esfuerzos a los supuestos enfoques de ese ML/DL en particular en un deseo de ampliar aún más las capacidades. En algún momento, quizás descubran que se han topado con una pared y, para su desagradable sorpresa, parece que no van a ninguna parte. Esto podría ser bastante desconcertante y exasperante. Han estado trabajando arduamente durante meses o años en algo que no se dieron cuenta de que había sido exprimido desde el principio. Nuevamente, me doy cuenta de que es posible que desee encontrar fallas en los desarrolladores de IA ahora decepcionados que aparentemente no fueron lo suficientemente inteligentes como para descubrir antes el jugo, pero me atrevo a decir que también podríamos encontrar preocupación de que hubo exprimidores que comenzaron las cosas. camino, para empezar.

Todo esto es ciertamente una reminiscencia de la analogía deportiva.

Tienes el deseo de ganar, aparentemente a cualquier precio. Algunos apuntarán a ganar sin jugo, mientras que otros lo harán por completo. Aquellos que usan jugos podrían racionalizar la actividad como legítima. Se están realizando esfuerzos para tratar de reducir o atrapar los jugos, aunque la naturaleza del gato y el ratón de la situación significa que es probable que los jugos estén un paso adelante. Cuando atrapan a alguien que está tomando jugo, corre el riesgo de sufrir una reacción violenta contra la reputación y otras consecuencias adversas. Constantemente sopesan las ventajas percibidas frente a los costos percibidos. Y así.

Lo difícil de atrapar jugos AI ML/DL es que hay una miríada de formas de llevar a cabo el jugo o el dopaje. Uno supone que podría decir lo mismo sobre los deportes y los jugos, es decir, que se puede usar una amplia variedad de medios y potenciadores del rendimiento para tratar de pasar desapercibido.

De todos modos, aquí hay algunas categorías generales a considerar en las incursiones de jugos AI ML/DL:

a) Jugo en la etapa de diseño de Machine Learning y Deep Learning

b) Exprima los datos utilizados para entrenar el ML/DL

c) Exprima el modelo ML/DL

d) Exprima las salidas ML/DL

e) Hacer cualquiera de los dos anteriores en combinación

f) Hacer cualquiera de los tres anteriores en combinación

g) Hacer todo lo anterior

He cubierto extensamente el uso de las mejores prácticas de ML/DL y también advertí sobre el uso desagradable de las prácticas de ML/DL en mis columnas. Le recomendamos que eche un vistazo si desea obtener más detalles.

Como muestra, consideremos brevemente el tipo de jugo que puede ocurrir a través de los datos que se usan para entrenar ML/DL. La regla general habitual es que mantenga algunos de sus datos de entrenamiento con el fin de probar su modelo ML/DL. Una recomendación habitual es utilizar una regla 80/20. Utiliza aproximadamente el 80% de sus datos para entrenar el ML/DL. El 20% restante se utiliza para probar el ML/DL. Se espera que el 20 % sea relativamente representativo del otro 80 % y que simplemente elija aleatoriamente cuál de sus datos de entrenamiento está en el conjunto de entrenamiento y cuál está en el conjunto de prueba.

Parece sencillo.

Ahora haremos algunos jugos o dopaje:

  • Refleje furtivamente sus datos de entrenamiento y datos de prueba. Un medio para mejorar las cosas sería examinar cuidadosamente sus datos y tratar de asegurarse deliberadamente de que el 80 % y el 20 % estén perfectamente alineados. No divides aleatoriamente los datos. En su lugar, hace una selección secreta para intentar que el 80 % y el 20 % se parezcan al pie de la letra. Esto tiene la intención de hacer que sus pruebas se vean extraordinariamente bien. En esencia, si a su ML/DL le va bien en el 80 %, es casi seguro que le irá bien en el 20 %. Hacer esto no está en el espíritu de las cosas, ya que potencialmente se está engañando a sí mismo (ya otros) haciéndoles creer que el ML/DL computacionalmente ha hecho un excelente trabajo de generalización. Puede que no tenga.
  • Cambie los datos de prueba. Otra forma de aprovechar su conjunto de datos de ML/DL es dividir los datos de entrenamiento de modo que representen, digamos, el 95 % de sus datos, mientras que los datos de prueba de reserva son solo el 5 %. Es probable que esto aumente sus probabilidades de que no haya nada en el insignificante 5% que socave el rendimiento de ML/DL. Muy pocas personas preguntarían qué parte de sus datos se usaron para entrenamiento versus pruebas. No saben cómo hacer esta pregunta o asumir que cualquier cosa que hayas hecho fue la forma correcta de hacer las cosas.
  • Deshazte de los valores atípicos de antemano. Un medio astuto de exprimir o dopar su ML/DL implica engaños sobre los valores atípicos en sus datos. Antes de introducir cualquiera de sus datos en el ML/DL en ciernes, primero examine los datos. Este es un paso prudente y muy recomendable, ya que debe estar familiarizado con sus datos antes de introducirlos en un ML/DL. Dicho esto, aquí están los trucos que se pueden usar. Encuentra los valores atípicos en los datos y los desecha. Esto generalmente ayudará a las matemáticas del ML/DL cuando intente encontrar patrones computacionalmente. Los valores atípicos suelen ser difíciles de manejar, aunque a menudo son cruciales y pueden decir mucho sobre la naturaleza de los datos y lo que sea que esté tratando de modelar. Al eliminar ciegamente los valores atípicos, es probable que se pierda algo que puede hacer o deshacer la realidad de lo que se supone que el ML/DL puede hacer. Una mejor práctica es prestar atención a los valores atípicos y considerar la mejor manera de lidiar con ellos, en lugar de eliminarlos sumariamente del conjunto de datos.
  • No haga ninguna prueba en absoluto. Un acto más escandaloso de jugo o dopaje implica no hacer ninguna prueba en absoluto. Utiliza todos sus datos para el entrenamiento. Si las cosas se ven bien, agita las manos en el aire y declara que el ML/DL está listo para continuar. En ese sentido, está utilizando una regla general del 100/0, es decir, el 100 % de los datos para el entrenamiento y el 0 % para las pruebas. Supongo que te sorprendería que alguien hiciera esto. Bueno, algunos están tan seguros de los resultados del entrenamiento que sienten que no se requieren pruebas. O tienen prisa y no tienen tiempo para lidiar con esas pruebas "molestas". Te dan la imagen.

Anteriormente mencioné que exprimir o dopar la IA puede ser un tanto intrascendente si la naturaleza de la IA en sí misma no es especialmente importante, mientras que otras configuraciones pueden implicar consecuencias de vida o muerte dirigidas por la IA y, por lo tanto, la extracción de jugos es aterradoramente un eslabón débil y presagio potencial de una fatalidad grave.

En este momento de esta importante discusión, apuesto a que está deseoso de algunos ejemplos ilustrativos que puedan mostrar este tema. Hay un conjunto especial y seguramente popular de ejemplos que están cerca de mi corazón. Verá, en mi calidad de experto en IA, incluidas las ramificaciones éticas y legales, con frecuencia se me pide que identifique ejemplos realistas que muestren los dilemas de ética de la IA para que la naturaleza un tanto teórica del tema pueda comprenderse más fácilmente. Una de las áreas más evocadoras que presenta vívidamente este dilema ético de la IA es el advenimiento de los verdaderos autos autónomos basados ​​en la IA. Esto servirá como un caso de uso útil o ejemplo para una amplia discusión sobre el tema.

Aquí hay una pregunta notable que vale la pena contemplar: ¿El advenimiento de los verdaderos autos autónomos basados ​​en IA aclara algo sobre el jugo o el dopaje de la IA y, de ser así, qué muestra esto?

Permítanme un momento para desempacar la pregunta.

Primero, tenga en cuenta que no hay un conductor humano involucrado en un verdadero automóvil autónomo. Tenga en cuenta que los verdaderos autos sin conductor se conducen a través de un sistema de conducción de IA. No hay necesidad de un conductor humano al volante, ni existe una disposición para que un humano conduzca el vehículo. Para conocer mi cobertura amplia y continua de los vehículos autónomos (AV) y, en especial, los autos sin conductor, consulte el enlace aquí.

Me gustaría aclarar más a qué se refiere cuando me refiero a verdaderos coches autónomos.

Comprensión de los niveles de los automóviles autónomos

Como aclaración, los verdaderos autos autónomos son aquellos en los que la IA conduce el automóvil completamente por sí sola y no hay asistencia humana durante la tarea de conducción.

Estos vehículos sin conductor se consideran Nivel 4 y Nivel 5 (vea mi explicación en este enlace aquí), mientras que un automóvil que requiere un conductor humano para compartir el esfuerzo de conducción generalmente se considera en el Nivel 2 o Nivel 3. Los automóviles que comparten la tarea de conducción se describen como semiautónomos y, por lo general, contienen una variedad de complementos automatizados que se conocen como ADAS (Advanced Driver-Assistance Systems).

Todavía no existe un verdadero automóvil autónomo en el Nivel 5, y aún no sabemos si será posible lograrlo, ni cuánto tiempo tomará llegar allí.

Mientras tanto, los esfuerzos de Nivel 4 están tratando gradualmente de obtener algo de tracción al someterse a pruebas de carreteras públicas muy estrechas y selectivas, aunque existe controversia sobre si estas pruebas deberían permitirse per se (todos somos conejillos de indias de vida o muerte en un experimento que tienen lugar en nuestras carreteras y caminos, algunos sostienen, vea mi cobertura en este enlace aquí).

Dado que los automóviles semiautónomos requieren un conductor humano, la adopción de ese tipo de automóviles no será muy diferente de la conducción de vehículos convencionales, por lo que no hay mucho nuevo per se sobre este tema (sin embargo, como verá, en un momento, los siguientes puntos son generalmente aplicables).

Para los automóviles semiautónomos, es importante que el público deba ser advertido sobre un aspecto inquietante que ha surgido últimamente, a saber, a pesar de que los conductores humanos siguen publicando videos de ellos mismos durmiendo al volante de un automóvil de Nivel 2 o Nivel 3 , todos debemos evitar que nos engañen creyendo que el conductor puede desviar su atención de la tarea de conducir mientras conduce un automóvil semiautónomo.

Usted es la parte responsable de las acciones de conducción del vehículo, independientemente de la cantidad de automatización que pueda arrojarse a un Nivel 2 o Nivel 3.

Coches autónomos y jugos o dopaje de IA

Para los vehículos autónomos verdaderos de Nivel 4 y Nivel 5, no habrá un conductor humano involucrado en la tarea de conducción.

Todos los ocupantes serán pasajeros.

La IA está conduciendo.

Un aspecto para discutir inmediatamente implica el hecho de que la IA involucrada en los sistemas de conducción de IA actuales no es sensible. En otras palabras, la IA es en su conjunto un colectivo de programación y algoritmos basados ​​en computadora, y seguramente no es capaz de razonar de la misma manera que los humanos.

¿Por qué este énfasis adicional en que la IA no es consciente?

Porque quiero subrayar que cuando hablo del papel del sistema de conducción de la IA, no estoy atribuyendo cualidades humanas a la IA. Tenga en cuenta que existe una tendencia continua y peligrosa en estos días a antropomorfizar la IA. En esencia, las personas están asignando una sensibilidad similar a la humana a la IA actual, a pesar del hecho innegable e indiscutible de que todavía no existe tal IA.

Con esa aclaración, puede imaginar que el sistema de conducción de inteligencia artificial no "conocerá" de forma nativa de alguna manera las facetas de la conducción. La conducción y todo lo que conlleva deberá programarse como parte del hardware y software del vehículo autónomo.

Vamos a sumergirnos en la miríada de aspectos que entran en juego en este tema.

Primero, es importante darse cuenta de que no todos los autos autónomos con IA son iguales. Cada fabricante de automóviles y empresa de tecnología de conducción autónoma está adoptando su enfoque para diseñar automóviles autónomos. Como tal, es difícil hacer declaraciones generales sobre lo que harán o no harán los sistemas de conducción de IA.

Además, cada vez que se indica que un sistema de conducción de inteligencia artificial no hace algo en particular, esto puede ser superado más adelante por desarrolladores que de hecho programan la computadora para hacer eso mismo. Paso a paso, los sistemas de conducción de IA se están mejorando y ampliando gradualmente. Es posible que una limitación existente hoy en día ya no exista en una iteración o versión futura del sistema.

Espero que eso proporcione una letanía suficiente de advertencias para fundamentar lo que estoy a punto de relatar.

Comenzaremos elogiando el uso de ML/DL en el ámbito de la creación de vehículos autónomos basados ​​en IA. Varios aspectos clave de los automóviles autónomos se han materializado como resultado del uso de Machine Learning y Deep Learning. Por ejemplo, considere el requisito principal de tener que detectar y analizar la escena de conducción que rodea a un automóvil autónomo basado en IA.

Sin duda habrá notado que la mayoría de los autos sin conductor tienen una miríada de sensores montados en el vehículo autónomo. Esto a menudo se hace en la azotea del automóvil autónomo. Los dispositivos sensores tales como cámaras de video, unidades LIDAR, unidades de radar, detectores ultrasónicos y similares se incluyen típicamente en un portaequipajes en el techo o posiblemente se fijan a la parte superior del automóvil oa los lados del vehículo. El conjunto de sensores está destinado a recopilar datos de forma electrónica que se pueden usar para descubrir qué existe en la escena de conducción.

Los sensores recopilan datos y envían los datos digitalizados a las computadoras de a bordo. Esas computadoras pueden ser una combinación de procesadores informáticos de propósito general y procesadores especializados que están diseñados específicamente para analizar datos sensoriales. En general, la mayor parte del análisis computacional de los datos sensoriales se lleva a cabo mediante ML/DL, que ha sido diseñado para este propósito y se ejecuta en las plataformas informáticas a bordo del vehículo. Para mis explicaciones detalladas sobre cómo funciona esto, vea el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

El ML/DL computacionalmente intenta encontrar patrones en los datos, como dónde está la carretera, dónde están los peatones, dónde están otros autos cercanos, etc. Todo esto es crucial para poder hacer que el automóvil autónomo avance. Sin el ML/DL realizando el análisis de la escena de conducción, el automóvil autónomo sería esencialmente ciego en cuanto a lo que existe alrededor del vehículo autónomo.

En resumen, puede argumentar fácilmente que el uso de ML/DL es esencial para el surgimiento de automóviles autónomos basados ​​en IA.

¿Puedes hacer jugo o hacer dopaje de ML / DL que pertenece a los automóviles autónomos basados ​​​​en IA?

Absolutamente.

Podemos invocar fácilmente los ejemplos mencionados anteriormente de jugo o dopaje cuando se trata de los aspectos de datos de las formulaciones LD/LD. Tenga en cuenta que el ML/DL que se utiliza para buscar peatones, automóviles y otros objetos de la vía probablemente se entrenó primero en varios conjuntos de datos de escenas de conducción. Esta capacitación del ML/DL es fundamental para que el sistema de conducción de IA pueda navegar de manera adecuada y segura por las calles mientras controla los controles de conducción del vehículo autónomo.

Esto es lo que un esfuerzo de extracción de jugo o dopaje podría hacer de forma clandestina:

  • Refleje furtivamente sus datos de entrenamiento y datos de prueba. Recopila el conjunto de datos que se utiliza para entrenar un ML/DL en objetos de la carretera y alinea deliberadamente la parte de entrenamiento y la parte de prueba. Sigue la regla general de dividir los datos en un 80 % para el entrenamiento y un 20 % para las pruebas, lo que, por lo tanto, parece ser el enfoque correcto. El jugo es que mueves los datos para asegurarte de que el 80% y el 20% son asombrosamente similares. Estás apilando el mazo a favor de cualquier ML/DL que diseñes durante el entrenamiento.
  • Cambie los datos de prueba. Divide los datos de entrenamiento en el 95 % del conjunto de datos total y coloca solo el 5 % en la porción de datos de prueba. Cuando se realizan las pruebas, resulta que ha reducido las posibilidades de que el ML/DL no se vea bien.
  • Deshazte de los valores atípicos de antemano. Mientras analiza los datos desde el principio, descubre que hay instancias de vallas publicitarias que tienen imágenes de personas. Le preocupa que esto confunda su ML/DL, por lo que elimina esas imágenes o videos de su conjunto de datos. Una vez que haya realizado el entrenamiento y las pruebas, declara que su ML/DL está listo para su uso en la naturaleza. Desafortunadamente, en algún momento, es probable que haya una situación en la que el automóvil autónomo vaya por una calle o carretera y haya una valla publicitaria con fotos de personas. No sabe cómo reaccionará su ML/DL. Podría ser que el ML/DL advierta que los peatones están cerca y, como resultado, el sistema de conducción de IA frene repentinamente, lo que incita a otros autos conducidos por humanos cercanos a chocar contra el auto sin conductor o salirse de la carretera para evitar un colisión.
  • No haga ninguna prueba en absoluto. Tiene prisa por obtener la configuración de ML/DL. Tal vez la empresa de autoconducción haya publicado una fecha que diga cuándo el automóvil autónomo hará una demostración pública importante. No tienes mucho tiempo para hacer las cosas bien. Como tal, cruza los dedos y usa todos los datos para el entrenamiento. No haces ninguna prueba en absoluto. Tiene una sensación de alivio por haber podido cumplir con el plazo establecido. Por supuesto, lo que suceda a continuación en la carretera podría ser una calamidad en ciernes.

Conclusión

En general, los fabricantes de automóviles autónomos de buena fe son bastante cautelosos a la hora de permitir tomar curvas y correr riesgos realizando acciones de jugo o dopaje en sus florecientes sistemas de conducción de IA. Por lo general, hay una gran cantidad de controles y equilibrios para tratar de detectar y corregir tales acciones. Además, muchas de las empresas han establecido preceptos de ética de IA algo rigurosos y mecanismos de alerta para tratar de detectar desde el principio cualquier desliz o descuido que pueda estar ocurriendo. Consulte mi cobertura en el enlace aquí.

Algunos de los intentos improvisados ​​​​de armar autos autónomos de IA han optado por dejar de lado la precaución. Toman descaradamente todos los atajos que se les ocurren. Además, ponen poco énfasis en hacer una doble verificación o tratar de detener cualquier jugo o dopaje. Algunos incluso usan el clásico de negación plausible simplemente instruyendo a sus desarrolladores de IA para que hagan "lo que crean que es correcto" y luego pueden, más tarde, proclamar que la empresa no sabía qué jugo o dopaje de la IA estaba ocurriendo. He discutido estos peligrosos esfuerzos en mis columnas.

En el caso de los coches autónomos, la vida o la muerte está claramente en juego.

El punto adicional es que si existe la posibilidad de exprimir o dopar la IA en el ámbito de los automóviles autónomos, debe preguntarse qué podría permitirse en los otros ámbitos menos de vida o muerte que dependen de los sistemas de IA. Las presiones para sacar la IA lo antes posible son inmensas. Las presiones para asegurarse de que la IA haga lo correcto de la manera correcta pueden ser mucho menos convincentes. Tristemente así.

Además de las preocupaciones éticas sobre el uso de jugos y el dopaje relacionados con la IA, he seguido insistiendo en los próximos tsunamis de acciones legales sobre estos asuntos. Cuando los sistemas de IA se salen con la suya con actividades atroces, aquellos que han ideado y aplicado la IA finalmente tendrán que rendir cuentas. Todavía no hemos visto el aumento de casos legales contra aquellos que fabrican IA y que usan IA en sus negocios. Marque mis palabras de que inevitablemente surgirá el ajuste de cuentas, vea mi cobertura en el enlace aquí.

Las empresas se verán legalmente obligadas a abrir sus puertas para mostrar cómo arman sus sistemas de IA. ¿Qué hicieron durante el diseño? ¿Qué hicieron durante los esfuerzos de datos? ¿Qué hicieron como parte de las pruebas antes del lanzamiento? Todo esto arrojará luz sobre la posibilidad de que la IA no se vea y se dope.

debería haber no ser un almuerzo gratis para aquellos que optan por hacer jugos de IA y dopaje. Tenga cuidado y mantenga los ojos abiertos. Manténgase firme e insista en la eliminación de jugos y el antidopaje de la IA.

Necesitamos una IA limpia, eso es seguro.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/06/07/ai-ethics-alarmed-at-the-rise-in-underhanded-juicing-or-doping-of-ai-machine- aprendizaje-por-personas-de-confianza-incluyendo-coches-autónomos-que-se-manejan-/