Uitleg
Existentiële risico's betreffen scénario's waar AI-systemen zou kunnen misaligned zijn met menselijke waarden op zo'n schaal dat het de toekomst van de mensheid bedreigt. Hoewel speculatief, beschouwen veel AI-onderzoekers dit als een belangrijk gebied voor voorbereiding.
Dit concept motiveert werk aan AI-alignment, veiligheid en beleid om ervoor te zorgen dat geavanceerde AI-systemen voorgoed beveiligd kunnen worden.
⚡ Voorbeelden
- •Scenarios waarin superintelligente AI wordt misgebruikt
- •Risico's van verlies van menselijke controle over geavanceerde systemen
- •Onderzoek naar lange-termijn toekomstige veiligheid van AI
Trefwoorden
risicotoekomstsuperintelligentiecontrolevoorbereiding