La ética de la IA y la ley de la IA podrían ser presionadas e incitadas a imponer advertencias de seguridad en todas las IA existentes y futuras

Sin duda, sus actividades diarias se ven bombardeadas con mil o más advertencias de precaución de un tipo u otro.

Pruébatelos para la talla:

  • Se deben usar anteojos de seguridad en todo momento.
  • Peligro: Productos químicos peligrosos cerca
  • Alto voltaje – Mantener fuera
  • Advertencia: Sea consciente de su entorno
  • Los objetos en el espejo están más cerca de lo que parecen
  • Retire al niño antes de plegarlo (como se indica en los cochecitos de bebé)
  • Precaución: asegúrese de ignorar este mensaje

La mayoría de ellos son letreros o etiquetas prácticos y bien pensados ​​que sirven para mantenernos seguros y protegidos.

Tenga en cuenta que incluí algunos "valores atípicos" en la lista para hacer algunos puntos notables.

Por ejemplo, algunas personas creen que es una locura que los cochecitos de bebé tengan una etiqueta adherida que le advierte que no debe doblar el cochecito mientras el bebé todavía está sentado dentro del artilugio. Aunque el signo es ciertamente apropiado y debidamente útil, parecería que el sentido común básico ya sería suficiente.

¿Qué persona no se daría cuenta por voluntad propia de que primero necesita sacar al bebé?

Bueno, otros enfatizan que tales etiquetas cumplen un propósito importante. Primero, alguien podría no darse cuenta de que necesita sacar al bebé antes de plegar la carriola. Tal vez la persona asumió que la carriola fue astutamente diseñada para asegurar que la operación de plegado no dañaría al bebé. O posiblemente haya características de seguridad integradas que evitan que se pliegue cuando hay un niño dentro del cochecito. Etc.

Además, podría ser que la persona estuviera distraída y hubiera doblado la carriola sin pensar, abarcando al bebé y todo, pero la etiqueta afortunadamente incitó a la persona a no hacerlo (algunos argumentarían que parece poco probable que esa persona se diera cuenta de la etiqueta). de todos modos). También está el hecho de que alguien podría demandar al fabricante de la carriola si dicha etiqueta no estuviera presente. Puede imaginar una de esas demandas importantes en las que un bebé resultó herido y el padre decidió juntar un millón de dólares porque la carriola no tenía una señal de advertencia. La compañía de cochecitos se arrepentiría de no haber gastado los pocos centavos necesarios para hacer y pegar las señales de advertencia en sus cochecitos.

Eche un vistazo de cerca también al último de los mensajes de advertencia que he enumerado anteriormente.

Opté por colocar el mensaje zalamero sobre asegurarse de ignorar el mensaje, ya que hay muchas etiquetas de advertencia falsas que la gente compra o hace solo por diversión en estos días. Este es un verdadero alucinante filosófico. Si lee la advertencia que dice que ignore la advertencia, ¿qué debe hacer exactamente después de haber leído la advertencia? Ya lo leíste, así que aparentemente está en tu mente. Claro, puede ignorarlo, pero, de nuevo, no se le advierte en absoluto qué es lo que se supone que debe ignorar. Vueltas y vueltas, dice este chiste.

Por supuesto, las etiquetas de advertencia de buena fe no suelen ser de naturaleza jocosa o humorística.

Se supone que debemos tomar las advertencias muy en serio.

Por lo general, si no cumple con una advertencia anotada, lo hace bajo un grave riesgo personal. Y, también podría ser que si no observa y cumple con la advertencia, también podría poner a otros en riesgo indebido. Considere el acto de conducir un automóvil. En el momento en que estás detrás del volante de un automóvil, tus acciones como conductor pueden dañarte a ti mismo, además puedes dañar a tus pasajeros y puedes dañar a otros, como personas en otros automóviles o peatones cercanos. En ese sentido, una advertencia no es solo para su beneficio, es probable que también sea para el beneficio de otros.

¿Por qué estoy cubriendo estas facetas de advertencias y etiquetas de precaución?

Porque algunos afirman con vehemencia que necesitamos señales de advertencia y advertencia sobre la inteligencia artificial (IA) actual.

En realidad, la idea es poner tales etiquetas en la IA de hoy y también en la IA del futuro. Con todo, toda IA ​​terminaría teniendo alguna forma o variante de una advertencia o indicación de precaución asociada a ella.

¿Buena idea o mala idea?

¿Práctico o poco práctico?

Avancemos y desempaquemos la concepción y veamos qué podemos hacer con ella.

Primero me gustaría establecer una base esencial sobre la IA y, en particular, sobre la ética y la ley de la IA, para asegurarme de que el tema de las advertencias de la IA sea sensible al contexto. Para aquellos de ustedes generalmente interesados ​​en la IA ética y también en la ley de IA, vean mi cobertura extensa y continua en el enlace aquí y el enlace aquí, Sólo para nombrar unos pocos.

La creciente conciencia de la IA ética y también de la ley de IA

Inicialmente, se consideró que la era reciente de la IA era AI para siempre, lo que significa que podríamos usar la IA para el mejoramiento de la humanidad. En los talones de AI para siempre vino la realización de que también estamos inmersos en AI para mal. Esto incluye la IA que se diseña o se modifica a sí misma para que sea discriminatoria y toma decisiones computacionales imbuyendo sesgos indebidos. A veces, la IA se construye de esa manera, mientras que en otros casos se desvía hacia ese territorio adverso.

Quiero estar completamente seguro de que estamos en la misma página sobre la naturaleza de la IA de hoy.

Hoy en día no hay ninguna IA que sea inteligente. No tenemos esto. No sabemos si la IA sensible será posible. Nadie puede predecir acertadamente si lograremos una IA inteligente, ni si la IA inteligente surgirá milagrosamente de forma espontánea en una forma de supernova cognitiva computacional (generalmente conocida como la singularidad, vea mi cobertura en el enlace aquí).

El tipo de IA en el que me estoy enfocando consiste en la IA no consciente que tenemos hoy. Si quisiéramos especular salvajemente sobre la IA consciente, esta discusión podría ir en una dirección radicalmente diferente. Una IA consciente supuestamente sería de calidad humana. Debería tener en cuenta que la IA inteligente es el equivalente cognitivo de un ser humano. Más aún, dado que algunos especulan que podríamos tener una IA superinteligente, es concebible que dicha IA termine siendo más inteligente que los humanos (para mi exploración de la IA superinteligente como posibilidad, consulte la cobertura aquí).

Sugiero enfáticamente que mantengamos las cosas con los pies en la tierra y consideremos la IA computacional no sensible de hoy.

Tenga en cuenta que la IA actual no puede "pensar" de ninguna manera a la par del pensamiento humano. Cuando interactúa con Alexa o Siri, las capacidades conversacionales pueden parecer similares a las capacidades humanas, pero la realidad es que es computacional y carece de cognición humana. La última era de IA ha hecho un uso extensivo de Machine Learning (ML) y Deep Learning (DL), que aprovechan la coincidencia de patrones computacionales. Esto ha llevado a sistemas de IA que tienen la apariencia de inclinaciones similares a las humanas. Mientras tanto, no hay ninguna IA hoy en día que tenga una apariencia de sentido común y tampoco tenga el asombro cognitivo del pensamiento humano robusto.

Mucho cuidado con antropomorfizar la IA actual.

ML/DL es una forma de coincidencia de patrones computacional. El enfoque habitual es reunir datos sobre una tarea de toma de decisiones. Usted introduce los datos en los modelos de computadora ML/DL. Esos modelos buscan encontrar patrones matemáticos. Después de encontrar dichos patrones, si los encuentra, el sistema de IA utilizará esos patrones cuando encuentre nuevos datos. Tras la presentación de nuevos datos, los patrones basados ​​en los datos "antiguos" o históricos se aplican para tomar una decisión actual.

Creo que puedes adivinar hacia dónde se dirige esto. Si los humanos que han estado tomando decisiones modeladas han estado incorporando sesgos adversos, lo más probable es que los datos reflejen esto de manera sutil pero significativa. La coincidencia de patrones computacionales de Machine Learning o Deep Learning simplemente intentará imitar matemáticamente los datos en consecuencia. No hay apariencia de sentido común u otros aspectos conscientes del modelado creado por IA per se.

Además, es posible que los desarrolladores de IA tampoco se den cuenta de lo que está pasando. Las matemáticas arcanas en el ML/DL pueden hacer que sea difícil descubrir los sesgos ahora ocultos. Con razón esperaría y esperaría que los desarrolladores de IA probaran los sesgos potencialmente enterrados, aunque esto es más complicado de lo que parece. Existe una gran posibilidad de que, incluso con pruebas relativamente extensas, aún haya sesgos integrados en los modelos de coincidencia de patrones de ML/DL.

De alguna manera, podría usar el adagio famoso o infame de que la basura entra, la basura sale. La cuestión es que esto es más parecido a los sesgos que se infunden insidiosamente como sesgos sumergidos dentro de la IA. La toma de decisiones del algoritmo (ADM) de la IA se carga axiomáticamente de inequidades.

No está bien.

Todo esto tiene implicaciones notablemente significativas en la ética de la IA y ofrece una ventana útil a las lecciones aprendidas (incluso antes de que sucedan todas las lecciones) cuando se trata de intentar legislar la IA.

Además de emplear los preceptos de ética de la IA en general, existe la cuestión correspondiente de si deberíamos tener leyes que rijan los diversos usos de la IA. Se están promoviendo nuevas leyes a nivel federal, estatal y local que se refieren al alcance y la naturaleza de cómo se debe diseñar la IA. El esfuerzo por redactar y promulgar tales leyes es gradual. La ética de la IA sirve como un recurso provisional considerado, como mínimo, y es casi seguro que, hasta cierto punto, se incorporará directamente a esas nuevas leyes.

Tenga en cuenta que algunos argumentan categóricamente que no necesitamos nuevas leyes que cubran la IA y que nuestras leyes existentes son suficientes. Advierten que si promulgamos algunas de estas leyes de IA, estaremos matando a la gallina de los huevos de oro reprimiendo los avances en IA que ofrecen inmensas ventajas sociales.

En columnas anteriores, he cubierto los diversos esfuerzos nacionales e internacionales para elaborar y promulgar leyes que regulen la IA, ver el enlace aquí, por ejemplo. También he cubierto los diversos principios y pautas de ética de la IA que varias naciones han identificado y adoptado, incluido, por ejemplo, el esfuerzo de las Naciones Unidas, como el conjunto de ética de la IA de la UNESCO que adoptaron casi 200 países, ver el enlace aquí.

Aquí hay una lista clave útil de criterios o características de IA ética con respecto a los sistemas de IA que he explorado de cerca anteriormente:

  • Transparencia
  • Justicia y Equidad
  • No maleficencia
  • Corporativa
  • Privacidad
  • Beneficencia
  • Libertad y Autonomía
  • Confía en
  • Sostenibilidad
  • Dignidad
  • Solidaridad

Se supone seriamente que esos principios de ética de la IA deben ser utilizados por los desarrolladores de IA, junto con aquellos que gestionan los esfuerzos de desarrollo de IA, e incluso aquellos que finalmente implementan y realizan el mantenimiento de los sistemas de IA.

Todas las partes interesadas a lo largo de todo el ciclo de vida de desarrollo y uso de la IA se consideran dentro del alcance de cumplir con las normas establecidas de IA ética. Este es un punto destacado importante ya que la suposición habitual es que "solo los codificadores" o aquellos que programan la IA están sujetos a adherirse a las nociones de ética de la IA. Como se enfatizó anteriormente en este documento, se necesita una aldea para diseñar y poner en práctica la IA, y para lo cual toda la aldea debe estar versada y cumplir con los preceptos de ética de la IA.

También examiné recientemente la Declaración de derechos de IA que es el título oficial del documento oficial del gobierno de EE. UU. titulado "Proyecto para una declaración de derechos de IA: hacer que los sistemas automatizados funcionen para el pueblo estadounidense" que fue el resultado de un esfuerzo de un año de la Oficina de Política Científica y Tecnológica (OSTP ). La OSTP es una entidad federal que sirve para asesorar al Presidente de los Estados Unidos ya la Oficina Ejecutiva de los Estados Unidos en diversos aspectos tecnológicos, científicos y de ingeniería de importancia nacional. En ese sentido, se puede decir que esta Declaración de Derechos de AI es un documento aprobado y respaldado por la actual Casa Blanca de EE. UU.

En la Declaración de derechos de AI, hay cinco categorías clave:

  • Sistemas seguros y efectivos
  • Protecciones de discriminación algorítmica
  • Privacidad de datos
  • Aviso y explicación
  • Alternativas humanas, consideración y respaldo

He revisado cuidadosamente esos preceptos, mira el enlace aquí.

Ahora que he sentado una base útil sobre estos temas relacionados con la ética de la IA y la ley de la IA, estamos listos para saltar al tema embriagador de si la IA debe o no tener etiquetas de advertencia.

Prepárese para un viaje informativo revelador.

Poner etiquetas de advertencia en la IA como un medio para proteger a la humanidad

Cada vez hay más rumores de que tal vez la IA debería venir con una advertencia de algún tipo.

Por ejemplo, en un artículo reciente en MIT Technology Review que discutió el creciente interés en realizar auditorías de IA, surgió la noción de proporcionar señales de advertencia: “El crecimiento de estas auditorías sugiere que algún día podríamos ver advertencias al estilo de los paquetes de cigarrillos de que los sistemas de IA podrían dañar su salud y seguridad. Otros sectores, como los productos químicos y los alimentos, tienen auditorías periódicas para garantizar que los productos sean seguros de usar. ¿Podría algo como esto convertirse en la norma en la IA?” (MIT Technology Review, Melissa Heikkilä, 24 de octubre de 2022).

Hablemos un poco en general sobre las señales de advertencia y precaución.

En general, todos estamos familiarizados con las señales de advertencia y precaución en numerosos productos y servicios de la naturaleza cotidiana. A veces, las señales de seguridad están estipuladas por ley como obligatorias, mientras que en otros casos existe discreción en cuanto a la utilización de dichas señales. Además, algunas señales de seguridad están estandarizadas, como las especificadas por la norma ANSI Z535 y la norma OSHA 1910.14. Esas normas cubren aspectos tales como la redacción del letrero, los colores y las fuentes utilizadas, la forma del letrero y varios otros detalles.

Tiene sentido tener estándares para tales señales de advertencia. Cada vez que vea una señal de este tipo, si cumple con los estándares establecidos, es más probable que crea que la señal es legítima, además de que requiere menos procesamiento cognitivo para analizar y dar sentido a la señal. Para las señales que no tienen un enfoque estandarizado, a menudo tiene que calcular mentalmente lo que le dice la señal, tal vez perdiendo un tiempo precioso para tomar medidas o puede juzgar completamente mal la señal y no comprender adecuadamente la advertencia en cuestión.

Puede existir una variedad de tales signos, por lo que a menudo se clasifican de la siguiente manera:

  • Señal de peligro: máxima preocupación e indicativa de un peligro inmediato con posibles consecuencias graves
  • Señal de advertencia: indicativo de un peligro que es menor que "peligro" pero aún bastante grave
  • Señal de precaución: indicativo de un peligro potencial que es menos que una "advertencia" pero aún así serio
  • Señal de notificación: indicativo de un aviso informativo que es menos que "precaución" pero que aún conlleva aspectos preocupantes

Teniendo en cuenta los antecedentes anteriores sobre advertencias y señales de precaución, podemos seguir adelante e intentar aplicar esto contextualmente al uso de la IA.

En primer lugar, de alguna manera podríamos estar de acuerdo en que la señalización de IA podría tener un rango de gravedad similar al habitual con las señales cotidianas, de modo que:

  • Señal de peligro de IA: AI de máxima preocupación e indicativo de un peligro inmediato con probables consecuencias graves
  • Señal de advertencia de IA: AI indicativo de un peligro que es menor que "peligro" pero aún bastante serio
  • AI Señal de precaución: AI indicativo de un peligro potencial que es menos que una "advertencia" pero aún así serio
  • Señal de notificación de IA: IA indicativa de un aviso informativo que es menos que "precaución" pero que aún conlleva aspectos preocupantes

La esencia es que no toda la IA será igualmente preocupante. Podría ser que una IA plantee riesgos tremendos o solo tenga riesgos marginales. En consecuencia, la señalización debe reflejar cuál es cuál. Si todas las advertencias o señales de precaución de la IA se mostraran simplemente como del mismo calibre, presumiblemente no sabríamos ni sabríamos si estar muy preocupados o solo levemente preocupados por la IA. El uso de un esquema de redacción tipificado podría facilitar la vida al ver e interpretar las señales de advertencia relacionadas con la IA.

Tal vez se pregunte qué más dirían los letreros en términos de los detalles del mensaje que se transmitirá.

Eso es sin duda un asunto más difícil de abordar. Las posibilidades de la IA de hacer cosas que se consideran inseguras o preocupantes serían enormemente grandes, casi infinitas. ¿Podemos reducirlos a un conjunto rutinario que se deletrea en solo un puñado de palabras cada uno? ¿O vamos a tener que permitir un enfoque más libre de cómo será la redacción?

Te dejaré reflexionar sobre esa pregunta abierta.

Continuando, tendemos a ver señales de advertencia en los objetos. Un sistema de IA no es necesariamente un "objeto" en el mismo sentido que la colocación habitual de signos. Esto plantea la cuestión de dónde se presentarán las señales de advertencia de la IA.

Podría ser que cuando esté ejecutando una aplicación en su teléfono inteligente, digamos que si está usando AI, se mostrará un mensaje que contiene la advertencia relacionada con AI. La aplicación lo alertaría sobre el uso subyacente de la IA. Esto podría ser un mensaje emergente o podría presentarse en una variedad de formas visuales e incluso auditivas.

También existe la situación de usar un servicio respaldado por IA, aunque es posible que no esté interactuando directamente con la IA. Por ejemplo, podría tener una conversación con un agente humano sobre la obtención de una hipoteca para una casa, para lo cual el agente está en silencio detrás de escena utilizando un sistema de inteligencia artificial para guiar sus esfuerzos.

Por lo tanto, debemos anticipar que las señales de advertencia de IA deben estar presentes en ambos casos de uso de IA, de modo que:

  • IA específica del producto: La IA como producto debería tener señales de advertencia o advertencia de IA.
  • IA orientada a servicios: La IA como servicio (directa o indirectamente) debe tener señales de advertencia o precaución de IA

Los escépticos sin duda se apresurarían a sugerir que el fabricante de la aplicación podría disfrazar la señal de advertencia de IA para que la alerta no sea especialmente perceptible. Quizás la advertencia aparece por un breve instante y realmente no notas que se mostró. Otro truco furtivo sería hacer una especie de juego, aparentemente socavando la seriedad de la alerta y haciendo que la gente piense que la advertencia es intrascendente.

Sí, puede apostar bastante a que cualquier señal de advertencia relacionada con la IA se modificará y utilizará de maneras que no estén dentro del espíritu y la intención del mensaje de advertencia que se supone que deben transmitir.

Todos esos escepticismos encajan en si utilizaríamos la ética de la IA como "leyes blandas" para tratar de impulsar las advertencias y precauciones relacionadas con la IA, o si haríamos uso de "leyes duras", incluidas las leyes promulgadas con respaldo judicial. En teoría, el impulso de la ley blanda permitiría una mayor apariencia de jugar con el asunto, mientras que las leyes en los libros tendrían el potencial de ser aplicadas por el gobierno y generarían un mayor rigor.

Otra preocupación es si la señalización de IA marcaría alguna diferencia de todos modos.

Mucha investigación sobre el comportamiento del consumidor tiende a mostrar resultados confusos cuando se trata de proporcionar etiquetas de advertencia para los consumidores. A veces las advertencias son efectivas, a veces no. Apliquemos parte de esa investigación al contexto de la IA.

Considere estas facetas:

  • Detección: ¿Aquellos que usan IA que contiene una señal de advertencia de IA viable notarían o detectarían activamente que se les está mostrando la señal (suponiendo que tal señalización ocurriera)?
  • Comprensión: Para aquellos que se dieron cuenta, ¿comprenderían o captarían lo que la señal de advertencia de IA está tratando de sugerirles?
  • Acción: Para aquellos que dan ese salto mental, ¿la señal de advertencia de la IA los impulsará a actuar o servirá para guiar su comportamiento en consecuencia?

Puede anticipar que si gana impulso por tener señales de advertencia de IA, los investigadores estudiarán el asunto de cerca. La idea sería ayudar a aclarar en qué circunstancias las advertencias son útiles y cuándo no. Esto a su vez se relaciona con el diseño y la apariencia involucrada. También podríamos esperar que el público en general deba ser educado o informado sobre la aparición de estas señales de advertencia y advertencia de IA para que se acostumbren a ellas.

Hay muchos giros y vueltas a considerar.

¿Debería aparecer la señal de advertencia o de precaución de la IA solo al comienzo de la aplicación que se está utilizando? Quizás el punto de partida no es suficiente por sí mismo. A primera vista, una persona podría pensar que la aplicación solo está jugando a lo seguro al usar una advertencia y, por lo tanto, no le da mucha importancia a la advertencia. Una vez que la persona está a la mitad del uso de la aplicación, tal vez se justifique una advertencia adicional. En ese momento, la persona es más consciente de lo que está haciendo la aplicación y es posible que ya se haya olvidado del mensaje de advertencia indicado anteriormente.

Entonces podría ocurrir la advertencia o precaución de AI:

  • Antes de iniciar la aplicación y justo cuando la aplicación está a punto de ser invocada
  • Presentado una vez que se inicia la aplicación y solo en el punto de partida
  • Se muestra al principio y nuevamente a la mitad
  • Se muestra varias veces durante el uso de la IA
  • Dado al final del uso de la aplicación.
  • Proporcione después de salir de la aplicación y posiblemente incluso minutos, horas o días después
  • Etc.

¿Cree que la persona que utiliza la IA debe confirmar o reconocer dichas advertencias o señales de precaución de la IA?

Algunos insistirían en que se le debe exigir a la persona que reconozca que vio las advertencias. Esto potencialmente evitaría a aquellos que podrían afirmar que no hubo ningún mensaje de advertencia. También podría hacer que las personas se tomen más en serio los mensajes, dado que se les pide que confirmen que observaron la indicación de advertencia.

Aquí tienes una pregunta difícil.

Debería todos AI tiene que proporcionar una advertencia o indicación de seguridad?

Podría argumentar que sí, toda IA ​​debe tener esto. Incluso si la IA es solo un riesgo de seguridad marginal, aún debe tener algún tipo de señal de advertencia, posiblemente solo una notificación o indicación informativa. Otros disputarían esta afirmación. Podrían contraargumentar que te estás pasando de la raya. No toda la IA necesita esto. Además, si obligas a toda la IA a tenerlo, diluirás el propósito. La gente se volverá insensible al ver las indicaciones de advertencia. Todo el enfoque se convertirá en una farsa.

En un ángulo relacionado, considere lo que probablemente dirán los fabricantes de IA.

Un punto de vista sería que esto va a ser un dolor en el ya sabes qué poner en marcha. Tener que modificar todos sus sistemas de IA y agregar esta función podría resultar costoso. Agregarlo en el futuro podría ser menos costoso, aunque, sin embargo, hay un costo asociado con la inclusión de esta disposición.

La nebulosidad es otra queja potencial. ¿Qué tipo de mensaje debe mostrarse? Si no hay ningún estándar, esto significa que los fabricantes de IA tendrán que crear algo nuevo. No solo tiene este costo adicional, sino que posiblemente abra la puerta a ser demandado. Puede imaginar que un fabricante de IA podría ser llevado a la tarea de que su advertencia no fue tan buena como la de algún otro sistema de IA. Los abogados terminarán haciendo un bulto con la confusión resultante.

También existe la preocupación de que la gente se asuste indebidamente con estos mensajes de seguridad.

Un fabricante de IA podría ver una caída abrupta en la cantidad de usuarios debido a un mensaje de seguridad que simplemente tiene la intención de brindar una advertencia informativa. La gente no sabrá qué hacer con el mensaje. Si no han visto esos mensajes antes, es posible que se asusten de inmediato y eviten innecesariamente el uso de la IA.

Menciono esas facetas porque algunos ya proclaman que “no hace daño” comenzar a incluir advertencias de IA o mensajes de seguridad. Para ellos, la idea es tan ideal como la tarta de manzana. Nadie podría refutar seriamente los beneficios de requerir siempre seguridad o advertencias relacionadas con la IA. Pero, por supuesto, esa no es una forma real de pensar sobre el asunto.

Incluso podría ir más allá y afirmar que los mensajes de advertencia de IA podrían producir algún tipo de histeria colectiva. Si de repente empezáramos a obligar a los sistemas de IA a tener tales mensajes, la gente podría malinterpretar la intención. Verá, hay muchas exhortaciones de que nos enfrentamos a una crisis existencial de IA, en la que la IA se apoderará del mundo y acabará con la humanidad. el enlace aquí para mi análisis de ese tipo de afirmaciones.

El uso del mensaje de advertencia de IA podría "inspirar" a algunas personas a creer que el final está cerca. ¿Por qué otra razón estarían apareciendo ahora los mensajes? Ciertamente, es una indicación de que, finalmente, la IA se está preparando para convertirse en nuestro señor supremo opresivo.

Una especie de resultado desesperadamente sombrío de tratar de hacer lo correcto al hacer que el público sea consciente de cómo la IA puede estar imbuida de capacidades discriminatorias u otras AI para mal aspectos.

Conclusión

James Russell Lowell, el famoso poeta estadounidense, dijo una vez: “Una espina de experiencia vale todo un desierto de advertencia”.

Menciono el comentario elevado para hacer algunos comentarios finales sobre el tema de las advertencias de IA o los mensajes de seguridad.

Lo más probable es que hasta que tengamos una comprensión un tanto generalizada de que la IA está haciendo malas acciones, no habrá mucho clamor por los mensajes de advertencia relacionados con la IA. Aquellos fabricantes de IA que opten por hacerlo voluntariamente tal vez sean elogiados, aunque también podrían verse acosados ​​injustamente sin darse cuenta. Algunos expertos podrían perseguirlos por aprovechar la IA que aparentemente necesita advertencias, para empezar, mientras se olvidan de darse cuenta de que estaban tratando de ir primero y que todos los demás fabricantes de IA se están quedando atrás.

Maldito si lo haces, tal vez no maldito si no lo haces.

Otra consideración trata de convertir lo que parece ser una buena idea conceptual en una práctica práctica y útil. Es fácil agitar las manos y gritar vagamente a los vientos que la IA debería tener mensajes de advertencia y seguridad. La parte difícil viene cuando se decide cuáles deben ser esos mensajes, cuándo y dónde deben presentarse, si su costo está generando beneficios suficientes y en qué medida, y así sucesivamente.

Aquí le daremos a James Russell Lowell la última palabra (poéticamente) sobre este tema por ahora: "La creatividad no es el hallazgo de una cosa, sino la creación de algo después de que se encuentra".

Supongo que es hora de arremangarse y ponerse a trabajar en esto. Y eso no es solo una advertencia, es una acción.

Fuente: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- advertencias-sobre-todas-las-ai-existentes-y-futuras/