Samsung breidt de spraakgestuurde AI-mogelijkheden op zijn aankomende vlaggenschip, de Galaxy S26, aanzienlijk uit. Naast verbeteringen aan de eigen Bixby-assistent en de verwachte integratie van Google’s Gemini, zal het toestel gebruikers in staat stellen om ook andere, externe AI-assistenten te activeren met alleen hun stem. Dit blijkt uit geruchten en geanalyseerde code.
De functionaliteit zou betekenen dat gebruikers niet langer gebonden zijn aan één vooraf ingestelde assistent. In plaats daarvan kunnen ze een specifiek stemcommando, zoals “Hé, [Naam van de AI]”, programmeren om een AI-dienst naar keuze te starten. Dit opent de deur voor assistenten zoals Amazon Alexa, of gespecialiseerde AI-tools van andere ontwikkelaars, om naadloos te worden geïntegreerd in de bediening van de telefoon. De technologie lijkt te werken via een systeemlaag die verschillende AI-spraakservices herkent en deze koppelt aan een door de gebruiker ingesteld trefwoord.
Deze ontwikkeling past in een bredere trend waarbij smartphones transformeren tot hubs voor meerdere AI-diensten, in plaats van gesloten ecosystemen. Samsung positioneert zijn hardware hiermee als een neutraal platform waarop de gebruiker zelf kan bepalen welke AI het beste bij een bepaalde taak past. Het is een logische stap na de introductie van de “Galaxy AI”-suite, die ook functies van verschillende leveranciers combineert.
Voor ondernemers en professionals betekent deze toenemende keuzevrijheid en toegankelijkheid van AI-tools dat mobiele productiviteit verder kan worden gepersonaliseerd. Men kan straks mogelijk de ene assistent gebruiken voor het managen van agenda en e-mail, en een andere, gespecialiseerdere AI voor het analyseren van data of het opstellen van specifieke content, allemaal via snelle spraakcommando’s op hetzelfde apparaat. Het benadrukt wel het belang van interoperabiliteit en het vermogen om verschillende tools efficiënt te kunnen inzetten.
Bron: Androidworld