01-05-2024

Amazon Bedrock biedt geavanceerde AI-modellen en tools voor veilige implementatie

Deel dit bericht

Amazon Web Services introduceert innovaties in het Amazon Bedrock-platform, dat is gericht op de ontwikkeling van generatieve AI-toepassingen. Bedrock kent een grote toegankelijkheid, snelheid en veiligheid en biedt toegang tot foundation-modellen als AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI en Amazon. Met het platform kunnen organisaties generatieve AI snel implementeren en schalen zonder verantwoordelijk te zijn voor het beheer van complexe onderliggende infrastructuur.

Een belangrijke nieuwe functionaliteit betreft het importeren van aangepaste modellen, waarmee organisaties deze kunnen integreren in het Bedrock-ecosysteem. Dat biedt de mogelijkheid om de ontwikkeling van nieuwe toepassingen te versnellen door gebruik te maken van modellen die zijn getraind op basis van eigen datasets. Ook introduceert AWS de ‘Model Evaluation’-tool, waarmee gebruikers efficiënt verschillende modellen kunnen beoordelen en vergelijken op basis van prestatiecriteria, wat de selectie van AI-toepassingen aanzienlijk versnelt. Om een verantwoorde AI-implementatie te garanderen, lanceert AWS daarnaast ‘Guardrails’, dat verbeterde veiligheidsfuncties biedt om ongewenste inhoud te filteren en te voldoen aan normen op het gebied van verslaglegging. Deze set aan tools stelt organisaties in staat om te innoveren en tegelijkertijd ethische AI-praktijken te handhaven.

Als het gaat om nieuwe modellen heeft AWS de Amazon Titan-reeks in Bedrock uitgebreid met ‘Titan Text Embeddings V2’ en ‘Titan Image Generator’. Titan Text Embeddings V2 is geoptimaliseerd voor taken als het ophalen van data en chatbot-interacties, waarbij opslag- en rekenkosten aanzienlijk zijn verlaagd zonder afbreuk te doen aan de nauwkeurigheid. Titan Image Generator vergemakkelijkt het creëren van hoogwaardige afbeeldingen met behulp van natuurlijke taalaanwijzingen en bevat onzichtbare watermerken om de transparantie te verbeteren en desinformatie tegen te gaan.

Meta Llama 3
Ook beschikbaar op Amazon Bedrock zijn de Meta Llama 3 FM's. Llama 3 is ontworpen voor ontwikkelaars, onderzoekers en bedrijven om hun generatieve AI-ideeën te bouwen, te experimenteren en op verantwoorde wijze op te schalen. De Llama 3 modellen zijn een verzameling vooraf getrainde en instructie-gefinetunede LLM's die een breed scala aan use cases ondersteunen. Ze zijn met name geschikt voor tekstsamenvatting en -classificatie, sentimentanalyse, taalvertaling en het genereren van codes. De volledige aankondiging kun je hier vinden. De Llama 3-modellen zijn een reeks vooraf getrainde en afgestemde generatieve tekstmodellen. Llama 2 is sinds vorig jaar beschikbaar via Amazon SageMaker JumpStart en on Amazon Bedrock.  
 
Llama 3 wordt geleverd in twee parametergrootheden - 8B en 70B met 8k lengte - die een breed scala aan gebruikssituaties ondersteunen met verbeteringen in redeneren, codegeneratie en het volgen van instructies. Llama 3 maakt gebruikt van een transformator-architectuur die uitsluitend uit decoders bestaat en van een nieuwe tokenizer die verbeterde modelprestaties biedt met een grootte van 128k. Daarnaast voorziet Meta in geoptimaliseerde post-training procedures die het aantal valse weigeringen aanzienlijk verminderen, de uitlijning verbeteren en de diversiteit van modelresponsen vergroten. Gebruikers kunnen profiteren van de gecombineerde voordelen van Llama 3-prestaties en MLOps-controles met Amazon SageMaker-functies, zoals SageMaker Pipelines, SageMaker Debugger of container logs. Bovendien wordt het model ingezet in een beveiligde AWS-omgeving onder VPC-controles, waardoor de gegevens beter beveiligd zijn. 

Company:

AWS, Amazon

Partners