Amazon laat je mogelijk betalen voor Alexa gebruik
Complexe rekenmodellen draaien helaas niet op lucht. De energieconsumptie van tech producten, en dus de impact van deze producten op het klimaat, is ondertussen een vast thema van gesprek. Maar hoeveel wordt er gedaan aan dat probleem? En wat zijn de oplossingen die worden bedacht? Amazon heeft volgens een vertrekkende leidinggevende een typische “oplossing” voor het probleem: de kosten doorberekenen aan de klant.
Hoofd apparaten en diensten vertrekt na 13 jaar
Dave Limp vindt het na 13 jaar wel mooi geweest bij Amazon. Voor hij de deur definitief achter zich dicht trekt, is hij nog even langs gegaan bij Bloomberg voor een interview. De huidige versie van Alexa blijft volgens hem wel gratis. Maar wanneer het bedrijf steeds meer gebruik gaat maken van “AI” technologie, zal dat volgens Dave zeker veranderen.
De kosten van het trainen en draaien van “AI” zijn gewoon veel te hoog om te kunnen verwerken in een gratis dienst. Wanneer Alexa over zal gaan op een betaald model is niet duidelijk, maar het zit zeker in de pijplijn. Dave geeft aan dat er zelfs al is gesproken over de prijzen. Daarbij zegt hij wel dat deze versie van Alexa een stuk meer opties zal bieden. Amazon twijfelt er dan ook niet over dat klanten het gebruik van “AI” Alexa het afsluiten van een zoveelste abonnement waard zullen vinden.
Waarom Dave vertrekt heeft hij niet gezegd tegen Bloomberg. In zijn functie als hoofd apparaten en diensten wordt hij naar verwachting opgevolgd door voormalig Microsoft leidinggevende Panos Panay.
Amazon zet hoog in op “AI”
“AI” mag dan een duur speeltje zijn, Amazon heeft het geld wel. Dat lieten ze eerder deze week wel zien toen bekend werd dat het bedrijf 4 miljard gaat investeren in “AI” startup Anthropic. Het bedrijf is een ontwikkelaar van generatieve “AI” en daarmee een directe concurrent van OpenAI. De zet wordt alom gezien als een poging de concurrentie aan te gaan met Microsoft en Google.
4 miljard geeft Amazon een minderheidsaandeel in Anthropic. Daarnaast zal het bedrijf de AWS cloud en de Trainium chip gebruiken. Die laatste is doelgericht ontworpen door Amazon als alternatief voor “AI” chips van Nvidia.
Anthropic is vooral bekend van hun taalmodel genaamd Claude. Het bedrijf is in 2021 opgericht door voormalige OpenAI medewerkers. Voordat Amazon de beurs trok, had Anthropic ‘slechts’ 750 miljoen dollar op weten te halen. Een deel van die miljoenen was afkomstig van Google. Het leek er dan ook lange tijd op dat Anthropic gebruik zou gaan maken van Google’s servers. Dat de keuze nu op Amazon haar AWS is gevallen wordt in de sector omschreven als een “roofdierenzet.”
De kosten van een dure dienst doorrekenen aan de klant lost natuurlijk maar een deel van het probleem op. Gezien de klimaattechnische stand van zaken, is het energieverbruik van grote taalmodellen een zorg op zich. Ook “AI” onderzoeker Kate Saenko denkt veel na over de vraatzucht van “AI.”
Hoeveel een “AI” model precies verbruikt is lastig exact te kwantificeren. Ook is er nog maar weinig onderzoek gedaan met als doel daar verandering in te brengen. Het onderzoek dat reeds is gedaan schetst echter een zorgwekkend beeld. Een enkele vraag aan een “AI” model kan vier tot vijf keer meer energie vragen dan een reguliere zoekopdracht aan bijvoorbeeld Google. Gezien de huidige push om alles van zoekmachines tot huishoudelijke voorwerpen en je tekstverwerker van “AI” technologie te voorzien, is dat zeker een probleem.
De wetenschappelijke wereld is vrijwel unaniem eens dat we veel en veel minder broeikasgassen uit moeten gaan stoten. Als in al de sectoren waarin men “AI” in wil gaan zetten de energiebehoefte ineens de pan uit rijst, gaat dat zeker niet gebeuren. Wel is er volgens Saenko hoop dat de energiebehoefte van “AI” kleiner gemaakt kan worden door bijvoorbeeld efficiëntere architectuur van de hardware. Je mag hopen dat voor we “AI” overal tegen gaan komen, als dat al gebeurd, men in Silicon Valley eerst eens kijkt of dat wel echt nodig is.