EA kernbegrippen

Kernideeën

Effectief Altruïsme: Een groeiende sociale beweging en een filosofie dat gebruik maakt van bewijs en reden om de meest effectieve manieren te vinden om goed te doen in de wereld. Een effectieve altruïst is iemand die zich identificeert met en handelt volgens de principes van effectief altruïsme.

Probleem-onverschillig/probleem-neutraliteit: Men is probleem-onverschillig als men kiest waar en hoe te helpen, alleen gebaseerd op hoeveel het zou helpen. Dat wil zeggen, men heeft geen voorkeur voor een probleem.

Kosteneffectiviteit: De kosteneffectiviteit van een liefdadigheidsinterventie heeft betrekking op de marginale impact per euro. Bijvoorbeeld, zo betaalt elke marginale euro die aan het Schistosomiasis Control Initiative (SCI) wordt gedoneerd voor ongeveer 1,8 ontwormingsbehandelingen.

Contrafeitelijke redenering: Bekommeren om het effect van een actie in vergelijking met wat er anders zou zijn gebeurd. De contrafeitelijke impact zou dan de hoeveelheid extra goed gedaan zijn door de actie.

Onpartijdigheid: De waardering van alle mensenlevens in gelijke mate, onafhankelijk van locatie, leeftijd, geslacht, enz. 

Gebruik maken van donaties: Soms kunnen liefdadigheidsdonaties als hefboom worden gebruikt om het effect ervan te vergroten. Bijvoorbeeld, in plaats van €1000 te doneren aan een goed doel, kan men de €1000 gebruiken om een inzamelingsactie te houden die resulteert in een donatie van meer dan €1000. 

Prioriteitstelling: Probleemgebieden kunnen worden geëvalueerd in termen van:

Filosofie

Consequentialisme: De opvatting dat de juistheid van een actie alleen afhangt van de gevolgen ervan, en niet van de intrinsieke aard of omstandigheid. De meest effectieve altruïsten zijn consequentialisten. Moraalfilosoof en effectief altruïst Thomas Pogge is een opmerkelijke uitzondering; hij onderschrijft een deontologisch systeem van ethiek (een systeem waarin mensen plichten hebben om bepaalde handelingen wel of niet te doen).

Moreel realisme: De bewering dat moraliteit meer bestaat dan alleen als menselijke constructie, zoals de meeste mensen denken dat de buitenwereld onafhankelijk van de mens bestaat om deze waar te nemen. Moreel onrealisme daarentegen is de bewering dat moraliteit slechts een idee is waar de mens graag over praat.

Utilitarisme: Utilitarisme is een bijzondere consequentialistische morele theorie, die stelt dat een daad goed of slecht is, afhankelijk van de mate waarin deze het geluk vergroot en het lijden vermindert. Verschillende variaties van het utilitarisme definiëren geluk en lijden op verschillende manieren; zo definieert het voorkeursutilitarisme geluk (resp. lijden) als de vervulling (resp. ontkenning) van iemands verlangens of voorkeuren, of dit nu wel of niet tot plezier leidt. Veel EA's dragen een vorm van utilitarisme uit.

Bevolkingsethiek: Gaat in op vragen over het relatieve belang van verschillende voelende wezens of groepen van voelende wezens. De belangrijke vragen zijn onder andere: Wat is de morele status van niet-menselijke dieren? Wat is de morele status van niet-menselijke wezens? Is de totale hoeveelheid mensen met goede ervaringen moreel relevant, of is alleen hun gemiddelde geluk van belang? Bevolkingsethiek is een bron van grote meningsverschillen onder effectieve altruïsten.

Rationalisme: Rationalisme is de opvatting dat reden en ervaring / bewijs, in plaats van religieuze overtuiging en emotionele reacties, de basis zou moeten zijn van iemands acties en meningen.

Acties en termijn-vereiste doelen

'Earning to give': De praktijk van het kiezen van een carrière, niet voor de directe impact ervan, maar voor het salaris, en vervolgens een aanzienlijk deel van dit salaris te doneren aan effectieve liefdadigheidsinstellingen. Verdienen om te geven kan effectiever zijn dan direct werk omdat geld flexibel is, omdat het verdienen om te geven onvervangbaar is (iemand anders zal soms het directe werk doen als je dat zelf niet doet), en omdat het individuen in staat stelt om zich te specialiseren in datgene waar ze het beste in zijn. Veel effectieve altruïsten verdienen om te geven.

Meta-EA: Een meta-EA liefdadigheidsinstelling is een organisatie die indirect bijdraagt aan EA door te proberen de effectieve altruïstische beweging op te bouwen of de efficiëntie ervan te verhogen, zoals GiveWell, CEA, TLYCS en MIRI (zie hieronder).

'Pledge' (Giving What We Can & The Life You Can Save): Veel effectieve altruïsten ondertekenen een verklaring om een aanzienlijk deel van hun inkomen aan een goed doel te schenken. Leden van GWWC beloven ten minste 10% van hun inkomen aan effectieve liefdadigheidsinstellingen om het lijden te verlichten dat wordt veroorzaakt door extreme armoede. TLYCS heeft een soortgelijke toezegging. 

Existentieel risico (x-risk): Een existentieel risico is een gevaar dat globaal in omvang en terminaal in intensiteit is. Dat wil zeggen, het dreigt "ofwel intelligent leven te vernietigen, ofwel het potentieel ervan permanent en drastisch in te perken". Voorbeelden hiervan zijn ernstige klimaatverandering, nucleaire oorlogsvoering en gevaarlijke kunstmatige intelligentie.

Internationale organisaties

The Centre for Effective Altruism (CEA): Een coalitie van projecten met betrekking tot het EA. Giving What We Can en 80.000 Hours maken beide deel uit van CEA. Andere projecten van het CEA zijn onder andere het stellen van prioriteiten tussen verschillende wereldwijde uitdagingen en het vergroten van de bekendheid van EA naar het publiek.

The Life You Can Save (TLYCS): Een non-profit organisatie opgericht door filosoof Peter Singer. Het bevordert effectief altruïsme door middel van publiekswerking met een focus op het verminderen van armoede en economische ongelijkheid. TLYCS streeft naar het creëren van lokale groepen van geïnformeerde gevers en een wereldwijde online gemeenschap en moedigt individuen aan om de belofte van liefdadigheidsdonatie te ondertekenen.

The Future of Humanity Institute (FHI): Een onderzoekscentrum in Oxford dat toonaangevend is op het gebied van primair onderzoek naar existentiële risico's. De belangrijkste onderzoeksgebieden van FHI zijn wereldwijde catastrofale risico's, toegepaste epistemologie, menselijke verrijking en toekomstige technologieën.

Machine Intelligence Research Institute (MIRI): Een non-profit organisatie met als missie "ervoor te zorgen dat de creatie van slimmer-dan-menselijke intelligentie een positief effect heeft." MIRI's hoofdactiviteit is het uitvoeren van onderzoek over een aantal onderwerpen: Hoe kan een machine op een samenhangende manier redeneren over zijn eigen gedrag? Wat is een betere formalisering voor besluitvorming onder onzekerheid? Hoe kunnen we de doelen van een AI specificeren om ervoor te zorgen dat deze overeenkomen met onze bedoelingen, zelfs als de AI zichzelf wijzigt? Welke AI-gerelateerde interventies zijn het meest gunstig?