¿Qué es la inteligencia artificial riesgos?

Ensayo sobre la inteligencia artificial

Eso puede hacer que la gente se pregunte: Espera, ¿qué? Pero estas grandes preocupaciones tienen su origen en la investigación. Junto con Hawking y Musk, figuras destacadas de Oxford y UC Berkeley y muchos de los investigadores que trabajan en IA hoy en día creen que los sistemas avanzados de IA, si se despliegan sin cuidado, podrían apartar permanentemente a la civilización humana de un buen futuro.

Esta preocupación se ha planteado desde los albores de la informática. Pero ha cobrado especial relevancia en los últimos años, cuando los avances en las técnicas de aprendizaje automático nos han permitido conocer de forma más concreta lo que podemos hacer con la IA, lo que la IA puede hacer por (y para) nosotros, y lo mucho que aún no sabemos.

También hay escépticos. Algunos piensan que la IA avanzada está tan lejos que no tiene sentido pensar en ella ahora. A otros les preocupa que la excesiva exageración sobre el poder de su campo pueda matarlo prematuramente. E incluso entre las personas que están de acuerdo en general en que la IA plantea peligros únicos, hay distintas opiniones sobre los pasos que tienen más sentido hoy en día.

La conversación sobre la IA está llena de confusión, desinformación y gente que habla por encima de los demás, en gran parte porque usamos la palabra «IA» para referirnos a muchas cosas. Así que aquí está el panorama general de cómo la inteligencia artificial podría suponer un peligro catastrófico, en nueve preguntas:

¿Cuáles son los riesgos de la inteligencia artificial?

La IA también suscita preocupaciones a corto plazo: privacidad, sesgo, desigualdad, seguridad y protección. La investigación del CSER ha identificado las amenazas y tendencias emergentes en la ciberseguridad mundial, y ha explorado los desafíos en la intersección de la IA, la digitalización y los sistemas de armas nucleares.

¿La IA es útil o perjudicial?

Muchos investigadores utilizan el término inteligencia artificial (IA) para describir el pensamiento y el comportamiento inteligente que demuestran las máquinas. Aunque la IA puede ser útil para los seres humanos, los científicos advierten que también puede ser una amenaza.

¿Cuáles son los riesgos a los que nos enfrentamos en la realidad aumentada IOT e IA?

A pesar de la tecnología sanitaria inteligente que proporcionan estos dispositivos, corren el riesgo de sufrir malware como resultado de la ciberseguridad de bajo nivel que se instala en ellos. Esto significa que los datos almacenados son vulnerables a ser leídos por un tercero y ser extraídos de los dispositivos.

Ejemplos de inteligencia artificial

A medida que las empresas de servicios financieros evalúan las posibles aplicaciones de la inteligencia artificial (IA), por ejemplo: para mejorar la experiencia del cliente y obtener eficiencias operativas, Artificial Intelligence/Machine Learning (AI/ML) Risk and Security («AIRS»)[1] se compromete a fomentar este diálogo y ha redactado el siguiente resumen en el que se analiza la implementación de la IA y los correspondientes riesgos potenciales que las empresas podrían considerar al formular su estrategia de IA. Este libro blanco ofrece las opiniones de AIRS sobre los posibles enfoques de la gobernanza de la IA para los servicios financieros, incluidos los riesgos potenciales, la categorización de los riesgos, la interpretabilidad, la discriminación y la mitigación de los riesgos, en particular, aplicados al sector financiero.

Las opiniones expresadas en este documento son las de los colaboradores individuales y no constituyen las opiniones de ninguna de las empresas con las que los colaboradores están asociados o por las que son empleados.

Este documento pretende ser la primera de varias iteraciones y nuevas contribuciones del grupo AIRS. Estas ideas se basan en la experiencia colectiva de AIRS, y las sugerencias que presentamos no pretenden ser exhaustivas. AIRS tiene previsto seguir construyendo una comunidad activa en torno a estas cuestiones. En el apartado 6 (Agradecimientos) se facilita la información de contacto por si hay algún comentario o si los lectores desean hacer comentarios sobre este documento o sobre AIRS.

¿Por qué la inteligencia artificial es mala para la sociedad?

La IA está programada para hacer algo devastador: Las armas autónomas son sistemas de inteligencia artificial que están programados para matar. En manos de la persona equivocada, estas armas podrían causar fácilmente víctimas masivas. Además, una carrera armamentística de la IA podría conducir inadvertidamente a una guerra de la IA que también provocara víctimas masivas.

¿Es la inteligencia artificial un problema o una solución?

Un futuro con IA no es del todo distópico, pero como usuarios debemos asegurarnos de que entendemos lo que se ha hecho para crear una IA y los riesgos que conlleva confiar en ella. En última instancia, la IA es una herramienta poderosa, pero no una solución en sí misma; su desarrollo y uso responsables deben reflejar esto.

¿Por qué la IA no es una amenaza?

Muchos de los expertos coincidieron en que la IA podría ser una amenaza en las manos equivocadas. El Dr. George Montanez, experto en IA del Harvey Mudd College, destaca que «los robots y los sistemas de IA no necesitan ser sensibles para ser peligrosos; basta con que sean herramientas eficaces en manos de humanos que deseen hacer daño a otros».

Efectos positivos de la inteligencia artificial

En los últimos años se han producido mejoras espectaculares en la inteligencia artificial, y es posible que se produzcan mejoras aún más espectaculares en las próximas décadas. Tanto a corto como a largo plazo, la IA debe desarrollarse en una dirección segura y beneficiosa.

Formamos parte de una comunidad de tecnólogos, académicos y responsables políticos que comparten el interés por una inteligencia artificial (IA) segura y beneficiosa para el mundo.  Trabajamos en colaboración con ellos para dar forma a la conversación pública de manera productiva, fomentar nuevos talentos y lanzar nuevos centros como el Centro Leverhulme para el Futuro de la Inteligencia.  Nuestra investigación ha abordado cuestiones técnicas relevantes para la seguridad de la IA, las implicaciones de seguridad a corto y largo plazo y la gobernanza de la IA, así como el potencial de la IA para ayudar a mitigar los riesgos medioambientales y biológicos.

El campo de la IA está avanzando rápidamente. En los últimos años se han producido avances espectaculares en el reconocimiento de imágenes y del habla, la robótica autónoma, las tareas lingüísticas y los juegos. Es probable que en las próximas décadas se produzcan avances sustanciales. Esto promete grandes beneficios: nuevos descubrimientos científicos, bienes y servicios más baratos y mejores, avances médicos. Nuestras investigaciones y colaboraciones han explorado las aplicaciones de la IA en toda una serie de retos mundiales, como la lucha contra el cambio climático, la respuesta a las pandemias y la seguridad alimentaria.

¿Es real la realidad aumentada?

La realidad aumentada (RA) es una versión mejorada del mundo físico real que se consigue mediante el uso de elementos visuales digitales, sonido u otros estímulos sensoriales suministrados a través de la tecnología. Es una tendencia creciente entre las empresas dedicadas a la informática móvil y a las aplicaciones empresariales en particular.

¿Puede la inteligencia artificial ser una amenaza para la inteligencia humana?

Si la IA supera a la humanidad en inteligencia general y se convierte en «superinteligente», entonces podría ser difícil o imposible de controlar para los humanos. … Una segunda fuente de preocupación es que una «explosión de inteligencia» repentina e inesperada pueda tomar por sorpresa a una raza humana no preparada.

¿Es la inteligencia artificial una amenaza para el discurso?

Guerras y destrucciones. La aplicación más avanzada de la IA lleva asociada una amenaza muy importante. Los sistemas basados en la IA podrían proporcionar las armas más avanzadas con capacidad propia.

Debate sobre la inteligencia artificial

Dado que la IA es una fuerza relativamente nueva en las empresas, pocos directivos han tenido la oportunidad de perfeccionar su intuición sobre el alcance total de los riesgos sociales, organizativos e individuales, o de desarrollar un conocimiento práctico de sus impulsores asociados, que van desde los datos introducidos en los sistemas de IA hasta el funcionamiento de los modelos algorítmicos y las interacciones entre humanos y máquinas. Como resultado, los ejecutivos suelen pasar por alto los peligros potenciales («No estamos utilizando la IA en nada que pueda ‘explotar’, como los coches autodirigidos») o sobrestiman las capacidades de mitigación de riesgos de una organización («Llevamos mucho tiempo haciendo análisis, así que ya tenemos los controles adecuados y nuestras prácticas están en línea con las de nuestros compañeros de la industria»). También es común que los líderes agrupen los riesgos de la IA con otros que pertenecen a especialistas en las organizaciones de TI y análisis («Confío en mi equipo técnico; están haciendo todo lo posible para proteger a nuestros clientes y a nuestra empresa»).

Este artículo pretende ayudar ilustrando primero una serie de escollos fáciles de pasar por alto. A continuación, presenta marcos que ayudarán a los dirigentes a identificar sus mayores riesgos y a aplicar la amplitud y profundidad de los controles matizados necesarios para sortearlos. Por último, ofrece un primer vistazo a algunos esfuerzos en el mundo real que se están llevando a cabo para abordar los riesgos de la IA mediante la aplicación de estos enfoques.

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad