domingo, junio 30, 2024

Mihailis Diamantis sobre un estándar de negligencia para la IA


La inteligencia synthetic en Estados Unidos no está regulada.

Mihailis Diamantis

Pero esto no va a durar mucho tiempo. Las propuestas sobre cómo controlar la IA se multiplican rápidamente.

La UE ya aprobó una Ley de IA que prohíbe ciertos tipos de IA riesgosos. Algunos estudiosos han propuesto una responsabilidad estricta.

Mihailis Diamantis, profesor de Derecho de Iowa, cube que estas soluciones rígidas van demasiado lejos porque “frenan la innovación y ponen en desventaja a las empresas nacionales en la carrera tecnológica internacional”.

En un nuevo artículo titulado: IA razonable: un estándar de negligencia – Diamantis propone que busquemos orientación en el derecho de responsabilidad civil.

“El derecho de responsabilidad civil ofrece un modelo convincente, pero el desafío es adaptar su noción claramente humana de culpa a los algoritmos”, escribe. “El estándar central de responsabilidad del derecho de responsabilidad civil es la negligencia, que compara la conducta del acusado con la conducta de otras personas ‘razonables’”.

Diamantis propone un nuevo estándar de negligencia para la IA.

“En lugar de comparar una IA determinada con los seres humanos o con otros algoritmos, la ley debería compararla con ambos”, escribe. “Con esta medida híbrida, un algoritmo se consideraría negligente si causa lesiones con una frecuencia mayor que la tasa de incidentes combinada de todos los actores (tanto humanos como IA) que participan en el mismo tipo de conducta. Este estándar de negligencia tiene tres características atractivas. En primer lugar, ofrece una línea de base incluso cuando hay muy pocos algoritmos comparables. En segundo lugar, incentiva a las empresas a publicar todos y solo los algoritmos que nos hacen más seguros en common. En tercer lugar, el estándar evoluciona con el tiempo y exige más de la IA a medida que los algoritmos mejoran”.

¿Cuáles son algunos de los daños que prevé que provocará la IA?

«No tenemos que prever los daños que puede causar la IA», dijo Diamantis. Reportero de delitos corporativos En una entrevista a principios de este mes, dijo: “Ya están sucediendo. Los que están en los titulares son las lesiones causadas por los autos que se conducen solos. También hay daños menos tangibles, aunque igualmente dañinos para los intereses de las personas. Se pueden pensar en daños como las prácticas de precios anticompetitivas, la contratación o la extensión de créditos discriminatorios y las violaciones de la privacidad”.

“Se ha escrito sobre esto: la IA como ChatGPT tiene acceso a todo, incluida una gran cantidad de información private que no debería estar disponible para terceros. Hay formas de engañar a los chatbots para que revelen información private confidencial sobre otras personas”.

A principios de este año, la revista The New Yorker publicó un artículo titulado Entre los agoreros de la IA. El periodista se reunió con los agoreros de la IA. Eliezer Yudkowsky está en el extremo de los agoreros. No solo ve daños menores, sino amenazas existenciales. Un número cada vez mayor de expertos en IA están hablando sobre la amenaza existencial que supone la IA para la existencia de la humanidad.

El autor del New Yorker informó que dentro de la industria existe un término llamado p(doom). P(doom) es la probabilidad de que, si la IA se vuelve más inteligente que las personas, aniquile, ya sea intencionalmente o por accidente, a todos los habitantes del planeta.

“En Estados Unidos vivimos en un mundo de IA no regulada, y con IA no regulada, el p(doom) es muy, muy alto. Se puede decir lo mismo de la IA y de muchas tecnologías no reguladas. Los avances médicos se pueden convertir en armas biológicas, que también tienen un p(doom) alto. Lo mismo ocurre con la energía nuclear y las armas nucleares”.

“En un mundo de IA sin regulación, como el mundo en el que hemos estado viviendo, la cifra de catástrofe es muy alta. Pero los académicos –y yo soy solo uno de ellos– que proponen estándares de responsabilidad, protocolos de desarrollo, requisitos de seguridad y ética están tratando de reducir esa cifra y capturar lo que tenemos que reconocer como los enormes beneficios de la IA, no solo las promesas, sino lo que está entregando hoy. Al igual que con la energía nuclear y la investigación médica, el desafío es: ¿cómo capturamos los beneficios y minimizamos las posibilidades de daños grandes y pequeños?”

Yudkowsky tiene una p(perdición) muy alta. Y nuevamente, p(perdición) es la probabilidad de que, si la IA se vuelve más inteligente que las personas, aniquilará, ya sea a propósito o por accidente, a todos los habitantes del planeta.

“Veo el p(doom) como un número en movimiento. A medida que regulamos la IA, el número p(doom) se scale back. Cuanto mejor sea la regulación, cuanto mejores sean los estándares de responsabilidad, menor será el número p(doom). Y será menor en un futuro muy cercano, ya que incluso Estados Unidos está deseando aprobar una legislación al respecto”.

“Escribí un artículo que comienza con el famoso experimento psychological de la máquina de sujetapapeles. La thought es que si la máquina de sujetapapeles se vuelve más inteligente que los humanos, simplemente convertirá a todos los humanos en clips y nos matará a todos”.

“En algunos aspectos, la IA ya es más inteligente que nosotros. No tiene inteligencia common, pero en tareas mentales puede superarnos. Ahora es bastante fácil desarrollar una IA que nos supere en una amplia gama de actividades”.

“¿Qué quiere la IA? Para los humanos, el poder trae despotismo. ¿Y qué quieren los humanos? Un déspota quiere subyugar a la gente. La avaricia es un issue. Quiere ejercer influencia”.

“La IA no tiene este tipo de debilidades humanas. ¿Qué quiere la IA? Probablemente quiera datos. Y si mata a todos los seres humanos, perderá todos sus datos. Esa es una gran manera de que la IA se autodestruya. Otra cosa que podría querer la IA es energía”.

“Pero la IA no quiere subyugar a los seres humanos ni destruirlos, a menos que se lo ordenemos. No hay una competencia necesaria entre los seres humanos y la IA a menos que decidamos que sea así”.

“Por otro lado, el uso militar de la IA es aterrador. Esa IA se desarrolla con el propósito de la destrucción. La IA diseñada para realizar transacciones eficientes en el mercado de valores es menos catastrófica”.

Dices que con la regulación, el número p(doom) disminuye. Pero en tu artículo escribes lo siguiente:

“Aunque la inteligencia synthetic promete impulsar el progreso social y económico, sus costos humanos se están haciendo evidentes. Por diseño, la IA se comporta de maneras inesperadas. Así es como encuentra soluciones imprevistas a problemas complejos. Pero la imprevisibilidad también significa que la IA a veces nos hará daño. Para reducir estos daños, los académicos y los legisladores han propuesto regulaciones estrictas para las empresas que desarrollan algoritmos seguros y una responsabilidad corporativa estricta por los daños que, no obstante, ocurren. Estas «soluciones» rígidas van demasiado lejos. Frenan la innovación y ponen en desventaja a las empresas nacionales en la carrera tecnológica internacional”.

Parece que usted está diciendo: regulación sí, pero ciertos tipos de regulación no.

“Esto se relaciona con lo que mencioné antes. La regulación es un acto de equilibrio. Hay promesas y peligros para cada tecnología. El desafío es descubrir cómo aprovechar los beneficios que la tecnología ofrece para la humanidad y al mismo tiempo contener los riesgos que impone a los humanos”.

“Uno de los temas que he abordado en mi investigación sobre la IA y que se refleja en el enfoque estadounidense en este campo es que la innovación en IA es importante. Cuanto más innovamos con la IA, más beneficios obtenemos. Tenemos un interés colectivo en continuar con el progreso de la IA. Así es como ampliamos los beneficios de la IA”.

«La preocupación es que si regulamos excesivamente, aplicamos protocolos de diseño demasiado estrictos o estándares de responsabilidad demasiado estrictos, frenamos esa innovación y reducimos parte del bien que la IA puede ofrecer».

“Desde un ángulo de la realpolitik, tenemos que ser conscientes del hecho de que la IA podría desarrollarse aquí y podría desarrollarse en otros lugares, en algún lugar que no sea muy amigable con los intereses de Estados Unidos o con la democracia o con los valores que la gente aprecia. Y frenar la innovación nacional en IA corre el riesgo de perjudicarnos a nosotros y a los valores que representamos en un contexto más internacional”.

“La pregunta es: ¿qué queremos que haga un estándar de negligencia? Queremos que nos haga más seguros en common. La propuesta es bastante easy. Si queremos que la IA nos haga más seguros en common, deberíamos vincular nuestro estándar de razonabilidad a la línea de base de seguridad precise de la actividad que se supone que debe realizar la IA”.

“Piense en los vehículos autónomos. ¿Cuántos accidentes se causan por cada milla recorrida en los Estados Unidos hoy? Si una empresa que fabrica vehículos autónomos lanza una IA y causa más accidentes que esa referencia, la IA se consideraría irrazonable según mi estándar y la corporación sería considerada responsable de los accidentes que trigger”.

«Si la IA funciona mejor que la base precise: causa menos accidentes que la base precise, la IA se consideraría razonable y la empresa no sería responsable de las lesiones que trigger».

“El atractivo de esta norma es que incentiva a las empresas a lanzar únicamente IA que mejore el historial de seguridad del tráfico por milla recorrida”.

Entonces, incluso en el caso de que un automóvil autónomo funcione mal y mate a alguien, en ese caso, si cumple con su estándar, ¿no hay responsabilidad?

“Si esta IA produce menos accidentes que la línea base precise, entonces la respuesta es sí”.

¿Sería esa una legislación estatal?

“Probablemente se basaría en los estados. Podría ser una legislación nacional, pero hay más voluntad política entre los estados para aprobar una legislación basada en datos. Además, muchos de los datos se recopilan a nivel estatal: los datos necesarios para implementar esta norma”.

(Para ver el formato completo de preguntas y respuestas Entrevista con Mihailis Diamantis, 38 Company Crime Reporter 24(12), 10 de junio de 2024, Sólo edición impresa.)

Related Articles

Dejar respuesta

Please enter your comment!
Please enter your name here

Latest Articles

Translate »