OpenAI lance GPT-4, une IA multimodale qui comprend à la fois le texte et les images

OpenAI a publié un nouveau modèle puissant d'IA pour la compréhension des images et des textes, GPT-4, que l'entreprise qualifie de « dernière étape dans ses efforts d'extension de l'apprentissage profond ».

ChatGPT
Crédit : toppercussion / 123RF

Après des mois de rumeurs et de spéculations, OpenAI a enfin annoncé GPT-4 : le dernier-né de sa gamme de modèles de langage d'IA qui alimentent des applications telles que ChatGPT et le nouveau Bing.

Selon la page produit du site web d'OpenAI, GPT-4 est « plus créatif et collaboratif que jamais » et « peut générer, éditer et itérer avec les utilisateurs sur des tâches d'écriture créatives et techniques, telles que la composition de chansons, l'écriture de scénarios ou l'apprentissage du style d'écriture d'un utilisateur ».

GPT-4 comprend enfin les images envoyées par les utilisateurs

L'une des principales différences entre GPT-4 et GPT-3.5 (le modèle qui alimente ChatGPT) est que la nouvelle version GPT-4 est capable d'accepter des images en plus du texte. Par exemple, si vous montrez à GPT-4 une image d'œufs, de farine et de lait et que vous lui demandez ce que vous pouvez faire avec ces ingrédients, le modèle de langage comprendra l'image et énumérera plusieurs recettes potentielles.

Vous pouvez désormais scanner des rapports de marketing et de vente, avec tous leurs graphiques et leurs chiffres, des manuels scolaires et des manuels d'utilisation, même les captures d'écran fonctionnent, et ChatGPT se chargera de tout résumer dans un dossier dans un langage adapté. Un employé d’OpenAI a même démontré qu’il était possible de créer un site web complet à partir de quelques consignes assez vagues écrites à la main sur une feuille blanche.

GPT-4 est plus intelligent que jamais

Sans surprise, GPT-4 est également beaucoup plus intelligent que les modèles précédents. Selon le document de recherche d'OpenAI, GPT-4 a réussi un examen du barreau simulé avec un score similaire à celui des 10 % de candidats les plus performants. En comparaison, ChatGPT a obtenu un score inférieur à 10 %. Le modèle linguistique multimodal a également obtenu un score de 99 % à l'Olympiade de biologie, contre 31 % pour GPT 3.5.

Un utilisateur de smartphone et d'ordinateur portable avec une incrustation ChatGPT / Crédit : 123rf

GPT-4 surpasse également ChatGPT grâce à ses capacités de raisonnement avancées et peut produire des réponses plus concises et plus précises que ChatGPT.

Lire également – ChatGPT a le cerveau d’un enfant de neuf ans

GPT-4 n’est pas encore parfait

Malgré cette importante avancée technologique, tout n’est pas encore parfait. Le PDG d'OpenAI, Sam Altman, a prévenu, avant la révélation de GPT-4, que « les gens ne demandent qu'à être déçus ». Altman a également tweeté que le modèle est « toujours imparfait, toujours limité, et qu'il semble toujours plus impressionnant à la première utilisation qu'il ne l'est après avoir passé plus de temps avec lui ».

chatgpt
Crédits : 123rf

L'OpenAI met également en garde contre le fait que les systèmes conservent un grand nombre des mêmes problèmes que les modèles de langage antérieurs, notamment une tendance à inventer des informations et la capacité de générer des textes violents et préjudiciables. Cependant, selon OpenAI, il est également plus difficile pour GPT-4 d'échapper aux garde-fous qui limitent ses possibilités d'utilisation.

Comment essayer GPT-4 ?

OpenAI indique que le GPT-4 sera bientôt disponible à la fois pour ChatGPT et pour l'API. Vous devrez être un abonné ChatGPT Plus pour y avoir accès, et sachez qu'il y aura également une limite d'utilisation pour jouer avec le nouveau modèle. L'accès à l'API pour le nouveau modèle est géré par une liste d'attente.

L’API permettra aux programmeurs d'intégrer l'IA dans leurs applications. OpenAI facturera environ 3 cents pour 750 mots de question et 6 cents pour 750 mots de réponse. La bonne nouvelle, c’est qu’il sera peut-être possible pour vous d’essayer GPT-4 gratuitement à un moment donné. « En fonction des modèles de trafic que nous observons, nous pourrions introduire un nouveau niveau d'abonnement pour une utilisation plus importante de GPT-4 ; nous espérons également à un moment donné offrir un certain nombre de requêtes GPT-4 gratuites afin que ceux qui n'ont pas d'abonnement puissent également l'essayer », explique la société.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !