Falsch. Das Kernproblem ist nicht Kontrolle. Es geht darum, ob das Universum mächtige, schwer zu verteidigende Technologien zulässt. Kein Maß an Systemausrichtung wird das beeinflussen. AI-Sicherheit erfordert, die Welt im Allgemeinen auszurichten, nicht nur die Systeme. Sicherheit ist *keine* Systemeigenschaft. Dieser Punkt ist offensichtlich, wird aber von vielen anscheinend widerstanden. Ich habe begonnen zu überlegen, ob der Grund dafür ist, dass die Unternehmen *wollen*, dass AI-Sicherheit hauptsächlich ein Problem ihrer Systeme ist. Aber das ist einfach nicht der Fall.
Stephen McAleer
Stephen McAleer5. Sept., 10:35
Skalierbare Aufsicht ist praktisch das letzte große Forschungsproblem, das noch übrig ist. Sobald du eine unhackbare Belohnungsfunktion für irgendetwas hast, kannst du RL auf alles anwenden.
49,15K