CONTACTO CON MILTHON
CONTACTO CON MILTHON
February 17, 2025 at 04:49 PM
*El riesgo existencial de la inteligencia artificial general* es la hipótesis de que un progreso sustancial en la inteligencia artificial general (IAG) podría resultar en la extinción humana o alguna otra catástrofe global irrecuperable. Un argumento para esta hipótesis es que la especie humana actualmente domina a otras especies porque el cerebro humano tiene algunas capacidades distintivas de las que carecen otros animales. Si la IA superara a la humanidad en inteligencia general y se volviera "superinteligente", entonces podría volverse difícil o imposible de controlar para los humanos. Así como el destino del gorila de montaña depende de la buena voluntad humana, el destino de la humanidad podría depender de las acciones de una futura superinteligencia mecánica. *Mitigar el riesgo de extinción a manos de la IA* debería ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear,* se puede leer en una declaración publicada en la página de internet del Centro para la Seguridad de la IA.
🫡 1

Comments