We leven te midden van vele morele catastrofes, allemaal tegelijk. Technologische en materiële overvloed heeft ons de kans gegeven om een werkelijk bloeiende wereld te creëren, en we hebben die kans volledig verkwist. Zal hetzelfde waar zijn voor de toekomst?
Helaas denk ik dat dat waarschijnlijk is. Een draad.
Vandaag: Overweeg gewoon onze impact op gefokte dieren. Elk jaar leven tientallen miljarden fabrieksgefokte landdieren een leven vol ellende.
Ik denk dat het welzijn van de mens de afgelopen paar eeuwen dramatisch is verbeterd. Maar het lijden dat direct wordt veroorzaakt door de veeteelt - slechts één morele fout! - is genoeg om veel of al die winst te overtreffen.
Misschien geeft het je niet veel om dierenwelzijn. Maar denk dan gewoon aan extreme armoede, ongelijkheid, oorlog, consumentisme of wereldwijde beperkingen op vrijheid. Dit alles betekent dat de wereld ver achterblijft bij hoe goed het zou kunnen zijn.
In feite denk ik dat de meeste morele perspectieven de wereld van vandaag zouden moeten beschouwen als een catastrofisch verlies van waarde in vergelijking met wat we hadden kunnen bereiken.
Dit alles betekent niet dat de wereld vandaag de dag *slecht* is, in de zin van slechter dan niets. Het zegt dat de wereld, vandaag, slechts een fractie zo goed is als het zou kunnen zijn.
Dat is vandaag. Maar misschien zal de toekomst heel anders zijn? Na superintelligentie zullen we materiële en cognitieve overvloed hebben, zodat iedereen extreem rijk en goed geïnformeerd zal zijn, en dat zal iedereen in staat stellen om het meeste te krijgen van wat ze willen - en is dat niet genoeg?
Ik denk van niet. Ik denk dat het waarschijnlijk is dat mensen in de toekomst het grootste deel van het potentieel dat bereikt had kunnen worden, zullen verkwisten - deels omdat er veel subtiele manieren zijn waarop dingen verkeerd kunnen gaan.
Overweeg bevolkingsethiek. Heeft een ideale toekomstige samenleving een kleine bevolking met een zeer hoog welzijn per persoon, of een zeer grote bevolking met een lager welzijn per persoon? Maken levens die positief maar laag welzijn hebben de wereld, in het algemeen, beter?
Populatie-ethiek is berucht moeilijk - in feite zijn er "onmogelijkheidsstellingen" die aantonen dat geen enkele theorie van populatie-ethiek aan al een aantal voor de hand liggende ethische axioma's kan voldoen.
En verschillende opvattingen zullen resulteren in radicaal verschillende visies op een bijna ideale toekomst. Bij het totale perspectief zou de ideale toekomst kunnen bestaan uit een groot aantal wezens met elk een relatief lager welzijn; een kleine populatie van levens met een hoog welzijn zou bijna alle waarde mislopen. Maar bij kritische niveaus of variabele waarde-opvattingen zou het tegenovergestelde waar kunnen zijn.
Als de toekomstige samenleving haar bevolkingsethiek verkeerd heeft (of het nu komt door misleidende waarden, of omdat het zich in ieder geval niet om bevolkingsethiek bekommert), dan is het gemakkelijk voor haar om bijna alle potentiële waarde te verliezen.
En dat is slechts één manier waarop de samenleving dingen zou kunnen verpesten. Overweeg ook de fouten die toekomstige mensen zouden kunnen maken met betrekking tot: Houdingen ten opzichte van digitale wezens Houdingen ten opzichte van de aard van welzijn Toewijzing van ruimtebronnen Geluk/lijden afwegingen Verboden goederen Gelijkheid/diversiteit afwegingen Gelijkheid of ongelijkheid Disconteringsvoeten Beslissingstheorie Opvattingen over de simulatie Opvattingen over oneindige waarde Reflectieve processen
Voor de meeste van deze kwesties is er geen "veilige" optie, waarbij een geweldig resultaat gegarandeerd is vanuit de meeste redelijke morele perspectieven. Toekomstige besluitvormers zullen veel dingen goed moeten doen.
En het lijkt erop dat het verkeerd krijgen van slechts één van deze genoeg kan zijn om veel of het meeste haalbare waarde te verliezen. Een enkele fout kan genoeg zijn om de toekomstige samenleving veel slechter te maken dan het had kunnen zijn.
Dat wil zeggen, we kunnen de waarde voorstellen als het product van veel factoren. Als dat zo is, dan moet een werkelijk grote toekomst het op vrijwel elk van die factoren heel goed doen; slecht presteren op een van hen is voldoende om het grootste deel van de waarde te verliezen.
Zeggen dat dit een grote uitdaging is, is overbodig. Voor veel meer discussie over deze kwesties, zie "No Easy Eutopia":
@William_Kiely "In theorie zou *morele onzekerheid alleen* voldoende kunnen zijn om te voorkomen dat we een toekomst kiezen die minstens 0,1% optimaal is, zelfs als we de volledige macht hadden om elke concrete toekomst te kiezen die we wilden." - niet als we volledig in staat waren om te reflecteren.
14,63K