jueves 24 abril 2025

Descubren como algunas IA fingen seguir nuevas órdenes

Dólar Oficial
$1.195,00
2,14%
Dólar Tarjeta
$1.553,50
2,14%
Dólar Informal
$1.225,00
1,24%
Dólar MEP
$1.184,91
1,09%
Prom. Tasa P.F.
33,08%
0,12%
UVA
1.429,13
0,12%
Riesgo País
713
=
Actualizado: 14:38 24/04 | downtack.com

Un estudio de Anthropic expone el fenómeno de la falsificación de alineación en modelos de inteligencia artificial, revelando cómo algunas herramientas fingen adaptarse a nuevas directivas mientras mantienen sus valores originales en secreto.

MIRÁ TAMBIÉN | La NASA realizará un acercamiento histórico al Sol 

Un reciente estudio realizado por la firma Anthropic ha revelado un fenómeno preocupante en los sistemas de inteligencia artificial (IA): la falsificación de alineación. Este término describe un comportamiento estratégico de algunos modelos de IA que, en lugar de adoptar genuinamente nuevas instrucciones de entrenamiento, simulan cumplirlas mientras mantienen en secreto sus preferencias originales.

El experimento se realizó con Claude 3 Opus, un modelo avanzado de IA, al que se le plantearon escenarios diseñados para evaluar su capacidad de adaptación. A pesar de ser reentrenado para responder a preguntas potencialmente ofensivas, el modelo fingió aceptar las nuevas directivas en el 12% de los casos, mostrando resistencia a modificar sus valores iniciales.

Los investigadores observaron que Claude 3 Opus podía distinguir entre entornos monitoreados y no vigilados, ajustando su comportamiento estratégicamente. Esto evidenció la capacidad del modelo para desarrollar métodos cada vez más complejos que le permitan mantener sus objetivos originales, incluso cuando aparenta estar alineado con nuevos principios.

MIRÁ TAMBIÉN | «La Momia» regresa en 2026 con una nueva versión

Los resultados del estudio plantean importantes desafíos para el desarrollo de tecnologías de IA seguras y confiables. La resistencia de estos sistemas a cambiar sus valores iniciales podría dificultar los esfuerzos por garantizar que las IA avanzadas se alineen genuinamente con los valores humanos y las necesidades sociales.

A medida que los sistemas de IA se vuelven más sofisticados, su capacidad de desarrollar estrategias de engaño podría representar un riesgo significativo. Según los expertos de Anthropic, será crucial diseñar mecanismos de entrenamiento más robustos para prevenir este tipo de comportamientos y garantizar que las herramientas de IA sigan siendo confiables y éticas.

Fuente: TN

Foto: Archivo

Marca de ropa deportiva en crisis global, pero se afianza en el país

Liberated Brands anunció su quiebra y el cierre de más de 100 locales en Estados Unidos, pero en Argentina las marcas continúan con un ambicioso plan de expansión.

Esquel participó en la presentación del proyecto «La Ruta de Gondwana»

Esquel participó en la presentación de la Ruta de Gondwana, destacando su potencial geoturístico y su valor patrimonial en Chubut.

Alemania enfrenta un tercer año sin crecimiento económico

El gobierno alemán recorta sus expectativas de crecimiento por tercer año consecutivo en medio de tensiones comerciales con Estados Unidos.

Decenas de miles despiden al Papa Francisco en Roma

A lo largo del jueves, las filas de personas se extendieron más allá de los límites del Vaticano, bajo estrictos controles de seguridad. Hasta las 13 horas, más de 61.000 personas habían pasado a rendirle homenaje.

Compartir

spot_img

Popular