Intel : bientôt des cartes graphiques pour concurrencer AMD et Nvidia ?

Intel vient de dévoiler un tout premier prototype de GPU, laissant penser que le fondeur souhaite désormais tailler des parts de marché à AMD et Nvidia en vendant ses propres cartes graphiques. Le fondeur suggère que ce premier GPU sera avant tout destiné aux stations de travail professionnelles, avec l’IA comme potentielle application. Une volte-face surprenant : Intel et AMD avaient en effet noué un partenariat pour lancer des SoC hybrides avec GPU Vega.

intel

Quand on pense Intel, on ne pense pas forcément immédiatement à du jeu vidéo. Mais sans doute davantage aux publicités des années 2000 mettant en scène le Blue Man Group, le logo Intel Inside, et sans aucun doute plusieurs de vos ordinateurs, indépendamment de leur puissance. Les gamers ont généralement besoin d’une carte graphique dotées d’un GPU récent, en plus du processeur (Intel ou AMD d’ailleurs), pour pouvoir correctement faire tourner les jeux vidéo. Le marché des cartes graphiques est aujourd’hui largement dominé par le duopole formé par Nvidia et AMD.

Intel dévoile un GPU

Mais Intel pourrait rapidement changer la donne. Le fondeur a en effet dévoilé à l’occasion du IEE International Solid-State Circuits Conference (San Francisco) un étonnant prototype… de GPU. Celui-ci est gravé en 14 nanomètres et s’articule autour de deux modules : le GPU et le contrôleur système d’un côté et un FPGA (Field programmable gate array) un type de circuit intégré en silicium reprogrammable. En outre il serait doté de 1,542 milliards de transistors. Intel précise que ce prototype a pour finalité de construire « un système graphique complet pour exécuter des tâches de travail« .

Cela ne nous avance pas beaucoup : s’agit-il d’une carte graphique, d’un SoC maison, ou tout autre type d’accélérateur graphique ou système de calcul parallèle ? Selon nos confrères de The Inquirer Intel n’a pas vraiment l’intention de lancer une carte graphique à destination des gamers : le fondeur arrive de toute façon un peu tard dans un marché qui ne l’a pas attendu. Mais davantage une carte qui trouverait sa place avant tout dans des systèmes dédiés au calcul parallèle. Et sans doute aussi des SoC avec CPU + GPU 100% Intel.

Bien que grossièrement similaires (les deux servent à calculer), les GPU et les CPU ne traitent pas les informations de la même manière. La différence entre les deux réside entre autres dans le nombre de threads : jusqu’à plusieurs milliers pour un GPU, vs quelques dizaines pour les CPU les plus puissants et avec le plus de coeurs. Un CPU est ainsi idéal dans les situations où il faut effectuer le plus rapidement des gros calculs de manière séquentielle.

Le GPU est de son côté plus indiqué lorsque l’on cherche à réaliser des milliers de petits calculs en même temps : rendus 3D, calculs scientifiques, intelligence artificielle, mining de cryptomonnaies… le tout avec une meilleure gestion de l’énergie. Intel semble ainsi laisser le marché du jeu vidéo de côté pour créer sans doute davantage un produit à destination des entreprises. Mais pas seulement : il y a quelques semaines, Intel présentait un SoC hybride doté à la fois d’un processeur i5 ou i7 et d’un GPU AMD Vega M GH/GL en fonction des versions.

La maîtrise des GPU pourrait permettre à Intel d’intégrer CPU et GPU dans une nouvelle génération de processeurs. On est impatient de voir ce que cela pourrait donner, pas vous ? On vous propose un peu de nostalgie avec cette publicité Intel des années 2000 :

Réagissez à cet article !
  • Billy_boolean

    Intel 740. Ca ne vous dit rien ? Un GPU sorti en 1998.
    Nous ne devons pas avoir la même définition de « premier ».

    • Spitfire

      Ils ont quand même pas tord, d’ou ta vu un GPU un vrai comme NVIDIA GTX 1070 rivalisé par intel ?

      • Billy_boolean

        En sachant qu’Intel a produit un des meilleurs GPU (2Dà)du marché en 1998, ce n’est pas un « tout premier GPU »
        La concurrence était déjà très forte à l’époque et ils étaient bons.
        Dire qu’après 20 ans d’absence Intel se lance a nouveau de le GPU aurait été vrai.

    • Plumplum

      Ahhh je l’ai eu celle là…je l’ai remplacée par une nvidia TNT2
      On appelait pas encore ça un GPU à l’époque mais plutôt carte graphique…
      Ça plaquait des textures…
      Le terme GPU est arrivé avec le transform and lightning de la Geforce 256

      • ded d

        Plutôt « carte accélératrice 3D ».
        On a jamais appelait une carte graphique. »carte graphique ».

        • Plumplum

          Oui c’est ça ! Carte accélératrice 3D!… C’est juste ;-)
          À l’époque t’avais même encore les cartes de décompression vidéo séparées! J’en avais pas! Me souviens que j’avais poussé mon Pentium 350 à 392mhz parce qu’il me manquait quelques frames en lecture de dvd

    • Stef80

      « Nous ne devons pas avoir la même définition de « premier ». »

      98, les mecs étaient peut être même pas nés :D

  • Guillaume Soghonian

    L’article manque malheureusement de précisions :
    – Cette carte graphique est pour le moment une extraction des GPU intégrés aux SOC Apollo Lake avec un module FPGA pour faire le raccordement PCIe et une mémoire dédiée (comme indiqué sur le schéma)
    – Intel avait prévue de faire de « vrais » GPU depuis quelques temps mais en sachant qu’il leur faudrait plusieurs années (n’oubliez pas qui ils ont recruté chez AMD récemment)
    – En terme de parts de marchés, Intel est largement au dessus avec ses CPU contenant un GPU intégré (même si peu puissant)
    – Intel a également de l’expérience avec les Xeon Phi qui étaient des GPU reconfiguré pour le calcul parallèle

    EDIT :
    Intel a publié une information sur le sujet :
    « La semaine dernière à l’ISSCC, Intel Labs a présenté un document de recherche explorant de nouvelles techniques appliquées aux circuits pour optimiser pour la gestion de l’énergie. L’équipe a utilisé une architecture GPU Intel intégrée Gen9 comme outil de développement pour ces nouvelles techniques appliquées aux circuits. Ceci est un juste un essai, pas un futur produit. Même si nous avons l’intention de nous lancer dans les produits graphiques à l’avenir, ces documents de recherche n’étaient pas liés à ce projet. Notre objectif avec ces études est d’explorer les futures techniques de circuits susceptibles d’améliorer la puissance et les performances des produits Intel. »
    Source : CowcotLand

  • Teddy

    Intel vous se réessayer dans le secteur, ils avaient déjà tâté le terrain sans succès.

Abonnez-vous gratuitement à la newsletter
Chaque semaine, le meilleur de Phonandroid dans votre boite mail !
Demandez nos derniers articles !