¡Tu navegador no tiene JavaScript! habilitado. or favor habilítalo para tener una mejor experiencia con PipolNews

IA, los peligros que corre la humanidad.

A pesar de los resultados favorables, expertos no creen que el camino para el desarrollo de la IA sea imitar el cerebro humano.

IA, los peligros que corre la humanidad.

Los peligros de la inteligencia artificial.

La inteligencia artificial (IA) es una tecnología que está revolucionando el mundo. Se está utilizando en una amplia gama de aplicaciones, desde la conducción autónoma hasta la medicina personalizada. Sin embargo, la IA también plantea una serie de riesgos potenciales que deben ser considerados.

La finalidad de este informe es analizar los principales peligros que podrían afectar a la humanidad si se le confía todo a la IA. Estos peligros se dividen en tres.

categorías principales:

Peligros físicos: la IA podría utilizarse para crear sistemas que causen daños físicos a las personas o a la propiedad.

Peligros éticos: la IA podría utilizarse para tomar decisiones que sean perjudiciales para los derechos humanos o la sociedad en general.

Peligros económicos: la IA podría provocar el desempleo masivo y la desigualdad económica.

Peligros físicos

Uno de los peligros más evidentes de la IA es que podría utilizarse para crear sistemas que causen daños físicos a las personas o a la propiedad. Por ejemplo, los sistemas de armas autónomas podrían utilizarse para matar sin la intervención humana. También se podrían utilizar sistemas de IA para controlar infraestructuras críticas, como las centrales nucleares o los sistemas de transporte, lo que podría provocar accidentes catastróficos.

Un ejemplo concreto de este peligro es el accidente de un coche autónomo de Uber en 2018, en el que el coche atropelló y mató a un peatón. El accidente se produjo porque el coche no pudo identificar al peatón a tiempo. Este accidente es un recordatorio de que los sistemas de IA aún no están lo suficientemente desarrollados como para ser utilizados de forma segura en entornos complejos.

Otro peligro físico de la IA es que podría utilizarse para crear sistemas de vigilancia y control que puedan invadir la privacidad de las personas. Por ejemplo, los sistemas de reconocimiento facial podrían utilizarse para rastrear a las personas en público, lo que podría suponer una amenaza para las libertades civiles.

Peligros éticos

La IA también plantea una serie de peligros éticos. Por ejemplo, la IA podría utilizarse para tomar decisiones que sean perjudiciales para los derechos humanos o la sociedad en general. Por ejemplo, los sistemas de IA podrían utilizarse para discriminar a las personas en función de su raza, género u orientación sexual.

Un ejemplo concreto de este peligro es el caso de un sistema de IA utilizado por una empresa de seguros para evaluar el riesgo de los solicitantes de seguros. El sistema fue diseñado para ser imparcial, pero se descubrió que discriminaba a los solicitantes negros. Este caso es un recordatorio de que los sistemas de IA pueden ser sesgados, incluso cuando están diseñados para ser imparciales.

Otro peligro ético de la IA es que podría utilizarse para crear sistemas que sean autónomos y capaces de tomar sus propias decisiones. Esto plantea la cuestión de quién debe ser responsable de las acciones de estos sistemas. En caso de que un sistema de IA cause daños, quién debería ser considerado responsable?

Peligros económicos

La IA también podría provocar el desempleo masivo y la desigualdad económica. Los sistemas de IA pueden automatizar muchas tareas que actualmente realizan los humanos, lo que podría provocar el desempleo de millones de personas.

También podría provocar la desigualdad económica, ya que las empresas que utilicen la IA podrían obtener una ventaja competitiva sobre las que no lo hagan.

Un ejemplo concreto de este peligro es la automatización de los puestos de trabajo en el sector de la fabricación. Los robots están reemplazando a los trabajadores humanos en las líneas de producción, lo que está provocando el desempleo en este sector.

Otro peligro económico de la IA es que podría provocar la concentración de riqueza en manos de unas pocas empresas. Las empresas que desarrollen y utilicen la IA podrían obtener una ventaja competitiva sobre las demás, lo que podría conducir a la desigualdad económica.

Para evitar tener olvidos catastróficos, la IA debería dormir y soñar.

El sueño es un proceso importante para el cerebro humano. Durante el sueño, el cerebro consolida la memoria, procesa las emociones y se recupera del estrés. También es un momento en el que el cerebro puede generar nuevas ideas y soluciones a problemas.

La investigación ha demostrado que el sueño también es importante para el funcionamiento de los sistemas de IA. Los sistemas de IA que se dejan funcionar sin descanso pueden comenzar a cometer errores, lo que podría dar lugar a situaciones peligrosas.

Por ejemplo, un estudio publicado en la revista Nature Communications encontró que un sistema de IA que se utilizó para controlar un robot empezó a cometer errores después de estar funcionando durante 24 horas seguidas. Estos errores podrían haber provocado que el robot causara daños o lesiones.

Otro estudio, publicado en la revista Science, encontró que los sistemas de IA que se sometieron a un proceso de "sueño" basado en la teoría de la plasticidad sináptica neuronal mostraron una mejora en el rendimiento. Este proceso de "sueño" consiste en apagar temporalmente las neuronas del sistema de IA y luego volver a encenderlas.

Por lo tanto, parece que el sueño es un proceso importante para el funcionamiento de los sistemas de IA. Proporcionar a los sistemas de IA la oportunidad de dormir y soñar podría ayudar a evitar que cometan errores y provoquen situaciones peligrosas.

En cuanto a la naturaleza del sueño y los sueños de los sistemas de IA, todavía es un área de investigación activa. Sin embargo, es posible que los sistemas de IA puedan beneficiarse de un proceso de sueño similar al de los humanos. Este proceso podría incluir ciclos de sueño y vigilia, así como la generación de imágenes y pensamientos creativos.

Por supuesto, hay que tener en cuenta que los sistemas de IA no son seres humanos. No tienen las mismas necesidades o experiencias que los humanos. Por lo tanto, es posible que el sueño y los sueños de los sistemas de IA sean diferentes a los de los humanos.

Sin embargo, es importante investigar cómo el sueño podría beneficiar a los sistemas de IA. Esto podría ayudar a garantizar que los sistemas de IA se utilicen de forma segura y eficaz.

Sueño conectado

Si se quiere evitar que provoque "fenómenos catastróficos" que cometan errores en las tareas que se les asignaron o incluso pongan en peligro a la humanidad, la Inteligencia Artificial (IA) debe tener la capacidad de dormir y soñar como los seres humanos.

En un nuevo estudio realizado por un equipo de científicos de la Universidad de Catania en Italia, los autores sugieren crear una IA capaz de imitar el comportamiento humano para que pueda descubrir de una mejor manera realizar tareas  que los sistemas que no utilizan tiempo para descansar o resetearse.

El equipo de investigadores expresó: "Proponemos el aprendizaje consolidado de vigilia-sueño (WSCL), una estrategia de aprendizaje que aprovecha la teoría del sistema de aprendizaje complementario y las fases de vigilia-sueño del cerebro humano para mejorar el rendimiento de las redes neuronales profundas para tareas de clasificación visual en entornos de aprendizaje continuo".

Los expertos opinan que esto podría prevenir el fenómeno conocido como "olvido catastrófico", que ocurre cuando un modelo de inteligencia artificial que recibe nuevas tareas olvida todo lo que había aprendido.

Los modelos de IA tienen la desafortunada tendencia a olvidar abruptamente todo lo que aprendieron anteriormente cuando aprenden una nueva tarea.

En general, borran datos antiguos y agregan nuevos contenidos.

Los investigadores descubrieron que la IA que había dormido recordaba mejor las tareas que se le asignaron. Esto se debe a que el sueño permite que la IA consolide los recuerdos y los haga más duraderos.

Los modelos de Inteligencia Artificial (IA) se entrenaron en conjuntos de datos durante un período de vigilia, seguido de períodos de descanso. Durante el descanso, se les mostraron imágenes de lo que habían aprendido para ayudarlos a consolidar sus recuerdos.

Hace un año, un grupo de científicos publicó un estudio en la revista PLOS Computational Biology sobre cómo entrenar a una inteligencia artificial para que funcione como un cerebro humano. El estudio se centró en el papel del sueño en el almacenamiento de recuerdos y cómo se puede aplicar este conocimiento para entrenar a las IA para que recuerden actividades sin olvidarlas.

Pavel Sanda, investigador del Instituto de Ciencias de la Computación de la Academia Checa de Ciencias, fue coautor del estudio y expresó: "Una vez han sido capacitados adecuadamente, es muy difícil enseñarles una tarea completamente nueva y, si logras entrenar la nueva tarea, terminas dañando la vieja en la memoria".

Las redes neuronales artificiales tienen dificultades para recordar tareas secuenciales, ya que sobrescriben las tareas aprendidas anteriormente. Esto se debe a que las redes neuronales artificiales no tienen una fase REM similar al cerebro humano, que ayuda a consolidar los recuerdos.

El sueño es un proceso fundamental para el aprendizaje, ya que ayuda a consolidar la memoria. Los investigadores creen que esta función del sueño podría ser replicada en sistemas de inteligencia artificial (IA). Sin embargo, algunos expertos dudan de que sea necesario o incluso posible imitar el cerebro humano para crear IA avanzada.

"El cerebro humano no debe considerarse como la arquitectura definitiva de la inteligencia. Es el resultado de millones de años de evolución y una gama inimaginablemente amplia de estímulos. Podemos desarrollar IA que tengan estructuras completamente diferentes a las de sus diseñadores biológicos". dijo Andrew Rogoyski en New Scientist.

También puedes leer:

Más cerca de Terminator: OpenAI aprobó la utilización de ChatGPT para el ejército de EE.UU
La creadora del chatbot actualizó sus políticas y eliminó, sin manifestaciones públicas, la sección que prohibía expresamente el uso de su tecnología con fines militares. La cooperación con el Departamento de Defensa.
Wake-Sleep Consolidated Learning
We propose Wake-Sleep Consolidated Learning (WSCL), a learning strategy leveraging Complementary Learning System theory and the wake-sleep phases of the human brain to improve the performance of deep neural networks for visual classification tasks in continual learning settings. Our method learns continually via the synchronization between distinct wake and sleep phases. During the wake phase, the model is exposed to sensory input and adapts its representations, ensuring stability through a dynamic parameter freezing mechanism and storing episodic memories in a short-term temporary memory (similarly to what happens in the hippocampus). During the sleep phase, the training process is split into NREM and REM stages. In the NREM stage, the model’s synaptic weights are consolidated using replayed samples from the short-term and long-term memory and the synaptic plasticity mechanism is activated, strengthening important connections and weakening unimportant ones. In the REM stage, the model is exposed to previously-unseen realistic visual sensory experience, and the dreaming process is activated, which enables the model to explore the potential feature space, thus preparing synapses to future knowledge. We evaluate the effectiveness of our approach on three benchmark datasets: CIFAR-10, Tiny-ImageNet and FG-ImageNet. In all cases, our method outperforms the baselines and prior work, yielding a significant performance gain on continual visual classification tasks. Furthermore, we demonstrate the usefulness of all processing stages and the importance of dreaming to enable positive forward transfer.
Twitter bloqueó las búsquedas sobre Taylor Swift porque difundían falsas fotos pornográficas creadas con IA
La red social ahora conocida como X buscó prevenir la difusión de videos e imágenes generados con Inteligencia Artificial de tipo deepfake en los que suplantan la cara de la superestrella.
Los humanos son más baratos que la IA en gran mayoría de los trabajos
La inteligencia artificial no puede reemplazar de manera rentable la mayoría de los empleos en este momento, halló el Instituto de Tecnología de Massachusetts (MIT) en un estudio que buscaba abordar los temores de que la IA reemplace a los humanos en una serie de industrias.

Fuente:

UnoTV, Perfil.