FORUM TERATEC 2024

Médiathèque

Retrouvez les articles recommandés par le Forum Teratec

ENTENDU SUR LE FORUM : "Create a novel data management and storage platform for exascale computing "

The IO Software for Exascale Architecture (IO-SEA) project is part of EuroHPC and is being pursued collaboratively across Europe by partners Atos, CEA, CEITEC, ECMWF, FZJ, ICHEC, IT4I, JGU Mainz, KTH, ParTec and Seagate. It aims to create a novel data management and storage platform for exascale computing based on Hierarchical Storage Management (HSM) and on-demand provisioning of storage services.
> Lire l'article

ENTENDU SUR LE FORUM : "Detecting periodic I/O behavior using frequency techniques"

This project is about detecting periodic I/O behavior using frequency techniques. It is a collaboration between the Technical University of Darmstadt and the University of Bordeaux-Inria. It also is part of the DEEP SEA project as well as of the Admire project.
> Lire l'article

ENTENDU SUR LE FORUM : "Biomemory développe une solution de stockage sur ADN"

Pourquoi l’ADN ? Car les supports de stockage traditionnels – disques durs, SSD et bandes magnétiques – ne peuvent plus suivre l’explosion du nombre de données. Il est estimé que de 30% de données conservées aujourd’hui, on passera à seulement 3% à l’avenir, forçant les entreprises à faire des arbitrages de plus en plus difficiles. Ces supports de stockage sont également fragiles. Les disques durs et SSD doivent être renouvelés tous les trois à quatre ans.
> Lire l'Article

Accélérer l'innovation: pourquoi cela vaut-il la peine de mettre à niveau votre matériel informatique?

Sur le marché concurrentiel d'aujourd'hui, votre entreprise doit faire des investissements technologiques stratégiques pour garantir l'efficacité, la sécurité et la compétitivité à long terme. De nombreuses entreprises négligent d'investir dans du nouveau matériel, tel que des serveurs, par crainte du coût initial. Pourtant, le fait de ne pas mettre à niveau et de ne pas entretenir les serveurs peut souvent entraîner des coûts d'investissement et d'exploitation plus élevés. Cela signifie que les dépenses quotidiennes associées à un matériel obsolète peuvent rapidement dépasser les temps d'arrêt à court terme ou l'investissement initial nécessaire pour un nouveau système.
En savoir plus

Hannover Messe 2023: Hewlett Packard Enterprise and Aleph Alpha demonstrate generative AI for manufacturing 

A la Foire de Hanovre, en Allemagne, le groupe américain HPE a présenté un prototype d'assistant virtuel doté d'une IA générative, capable de dialoguer avec les employés d'une usine et de les aider à résoudre des problèmes techniques. Le prototype utilise le langage et les images pour communiquer avec les humains et s'appuie sur le robot conversationnel développé par la start-up allemande Aleph Alpha. Cette solution innovante illustre le potentiel de l'IA générative, qui apprend de données existantes pour générer de nouveaux contenus. 
> En savoir plus

Nimbix Federated: a comprehensive architecture for secure, cloud-managed, multi-site supercomputing as-a-service

High-performance computing (HPC) is a complex ecosystem that is increasingly being democratized by cloud and cloud-like technologies. This increased accessibility enables engineers and scientists to consume highly advanced resources without extensive IT expertise, advancing the digital transformation of the physical world. 
> Lire l'article

Alain Aspect s'exprime sur la place de la France dans la course au quantique, de la recherche aux start-up

Le professeur Alain Aspect, co-lauréat du prix nobel de physique 2022 pour ses travaux sur l’intrication quantique, a pris la parole à l'occasion du Forum Teratec 2023, évènement dédié au numérique de grande puissance. Il y a évoqué la place de la France dans le domaine quantique face entre autres aux grandes puissances mondiales. Quelles priorités pour la recherche fondamentale ? Quelles stratégies adopter pour accélérer l'industrialisation de ces technologies ? Découvrez son intervention en vidéo.
Lire l'article

IA générative, quantique, PME… Le Forum Teratec entame sa 18e édition au Parc floral de Paris

Pour sa 18e édition, le Forum Teratec se déroule au Parc floral de Paris. La grand-messe des professionnels du numérique – utilisateurs comme fournisseurs – s’intéressera aux dernières actualités du secteur, essor de l’IA générative et anticipation du calcul quantique en tête.
Lire l'article

Comment les supercalculateurs cherchent à rentabiliser leur impact environnemental

Une fabrication coûteuse pour la planète et un fonctionnement gourmand en énergie : les supercalculateurs ont un impact climatique indéniable. Les acteurs du secteur tentent de le compenser, en mettant en avant les calculs environnementaux et en cherchant à maximiser les performances énergétiques de leurs processeurs.
Lire l'article

Au Forum Teratec, le numérique de puissance entre accélération et souveraineté

L’ouverture du Forum Teratec, qui se tient les 31 mai et 1er juin au Parc floral de Vincennes, s'est placée sous le signe de l’accélération du numérique de puissance et de la régulation croissante associée à l'enjeu de souveraineté.
Lire l'article

Forum Teratec 2023 : trois contributions exemplaires du calcul intensif aux sciences de la Terre et du climat

Un jumeau numérique complet de nos océans, un modèle capable de prévoir et d’estimer l’ampleur des inondations, des mesures spatio-temporelles précises de la déformation de la Terre : voici trois utilisations marquantes du calcul intensif, présentées à l’occasion du Forum Teratec ce mercredi 31 mai 2023.
Lire l'article

Créer un centre d'excellence AI/HPC

Le lancement d'un nouveau programme stratégique d'IA ou de calcul intensif peut être une perspective intimidante, mais les possibilités de transformation de la recherche et de l'innovation pour l'industrie, le commerce ou les organismes publics en font un investissement convaincant. 
> Lire l'article

Optimisation du Calcul Scientifique grâce à la convergence de la simulation numérique, du HPC et de l’IA  

Le calcul haute performance (HPC) joue un rôle essentiel dans l'Intelligence Artificielle (IA), la simulation et les jumeaux numériques en fournissant la puissance de calcul et l'infrastructure nécessaire pour effectuer des calculs complexes et gourmands en données. 
> Lire l'article

Le CCRT, un centre de calcul au service de l’industrie depuis 20 ans

Vingt ans déjà que le CEA et ses partenaires partagent des machines toujours plus puissantes pour répondre à des besoins industriels ou de recherche en HPC, traitement de données et IA ! Le succès du CCRT repose sur une relation de confiance, solide et pérenne, établie sur la base d’un engagement pluriannuel et d’une dynamique d’échanges (formations, séminaires technologiques et scientifiques). 
> Lire l'article

Intel est à l’avant-garde du développement de nouvelles technologies.

Nous travaillons à faire progresser la conception et la fabrication de semi-conducteurs afin d’aider nos clients à relever leurs défis grâce à cinq superpouvoirs : l’informatique omniprésente, la connectivité omniprésente, l’infrastructure Cloud-to-Edge, l’intelligence artificielle, ainsi que les technologies de Sensing. Ces technologies façonnent fondamentalement notre manière d’appréhender le monde en créant un pont entre l’ère analogique et l’ère numérique.
> Lire l'article

#SIMULATION

Comment simulation numérique et intelligence artificielle combinent leurs forces

Les modèles d'intelligence artificielle basés sur le machine learning (l'apprentissage automatique) font leur entrée dans le monde de la simulation numérique, enrichissant ou accélérant les calculs. Les industriels et les chercheurs explorent les possibilités de cette hybridation prometteuse.
> Lire l'article

#IA

L’hybridation avec l'IA fera partie de la panoplie des ingénieurs en simulation 

Directeur de recherche à l'Inria et spécialiste de l'intelligence artificielle, Marc Schoenauer souligne pour Industrie & Technologies le dynamisme de la recherche sur l'hybridation entre machine learning et simulation numérique et en dresse les perspectives.
> Lire l'article

#HYBRIDATION 

Comment l’industrie va booster ses méthodes de conception grâce à l'hybridation IA-Simulation 

Aidés par des organismes de recherche publics et privés, les industriels ont commencé à tester les modèles de simulation hybridés avec l'intelligence artificielle. Les bénéfices attendus – réduction du temps de calcul, gain de précision – permettront d’améliorer la mise au point et la fabrication de nouveaux produits et équipements.
> Lire l'article

#JUMEAU NUMERIQUE 

Comment le jumeau numérique du réacteur à fusion ITER est mis en oeuvre  

A l’initiative de l’éditeur de logiciels d’ingénierie Bentley Systems et du bureau d’études Brigantium Engineering, le jumeau numérique du projet ITER est en cours de développement depuis le printemps 2022. Cette représentation 3D devrait assister les ingénieurs dans la construction de ce gigantesque réacteur à fusion, qui réclame une organisation et une précision sans faille.
> Lire l'article

#METAVERS

Le métavers s'attaque à l'industrie 

Superposé au jumeau numérique, le métavers industriel promet une gestion optimale du fonctionnement de l'usine en incluant le facteur humain. Microsoft et Kawasaki Heavy Industries, Siemens et Nvidia pour BMW... Les premières offres et expérimentations se déploient.
> Lire l'article

#START UP

Les qubits de spin d’électron montent en puissance, la France se lance avec Siquance

Misant sur les technos de la microélectronique, les qubits sur silicium se posent en challengers des qubits supraconducteurs et à ions piégés. La France entre dans la course avec la start-up Siquance, lancée ce 29 novembre et qui s'inscrit dans la continuité des travaux pionniers du groupe de recherche Quantum Silicon Grenoble.
> Lire l'article

#QUANTIQUE

Quand industriels et start-up explorent les usages des premières machines quantiques 

L'ordinateur quantique universel reste un rêve, mais des prototypes de machines, certes imparfaites et limitées, sont déjà disponibles. Plusieurs industriels travaillent avec les start-up qui les développent pour explorer les applications de cette technologie de rupture.
> Lire l'article

#DEEPTECH

La deeptech Pasqal signe avec BMW pour appliquer le calcul quantique au formage des métaux 

La deeptech française Pasqal a annoncé le 11 mai un partenariat avec BMW pour mettre son calculateur quantique au service de la simulation numérique du comportement mécanique de pièces métalliques. La start-up mettra en œuvre un algorithme de la néerlandaise Qu&Co, achetée par Pasqal en janvier et qui avait remporté un défi du BMW Quantum Computer Challenge en décembre 2021.
> Lire l'article

#QUANTIQUE 

Comment Intel compte gagner la bataille de l'ordinateur quantique

Les progrès dans le domaine de l'informatique quantique ont été nombreux ces dernières années. L'avènement d'une machine commerciale réellement transformatrice semble pourtant encore diffus. L'un des acteurs les plus discrets du secteur, le fondeur américain Intel, table sur 2030. Et compte bien sortir le vainqueur de cette course qu'il voit comme un marathon et pas un sprint. Tour d'horizon avec James Clarke, directeur du matériel quantique chez Intel.
> Lire l'article

#RISC-V

HPC : L'Union européenne débloque 270 millions d'euros pour développer l'écosystème RISC-V

L'UE semble vouloir passer aux choses sérieuses concernant le développement de capacités souveraines de calcul haute performance. Un appel à projet doté d'un budget de 270 millions d'euros sera lancé en janvier pour faire foisonner un écosystème matériel et logiciel autour de l'architecture ouverte RISC-V.
> Lire l'article

#DIGITAL TWIN

[CES 2023] Comment Dassault Systèmes compte révolutionner la santé avec ses jumeaux numériques

Le champion français du numérique Dassault Systèmes a profité du CES de Las Vegas pour présenter ses “jumeaux numériques” du cœur et du cerveau humain, destinés à faire progresser la recherche médicale et à aider les médecins à mieux comprendre et accompagner chacun de leurs patients.
> Lire l'article

#IA

[L'instant tech] Ces industriels qui économisent de l'énergie grâce à la data et l'IA

Sommes de réaliser des économies d'énergie d'ici à l'automne par le gouvernement, plusieurs industriels se sont tournés vers l'intelligence artificielle, qui ont mis en rapport les données de production et les cours de l'énergie. A l'occasion du Sido, le salon de l'IA et des objets connectés qui se tient à Lyon les 14 et 15 septembre, L'Usine Nouvelle revient sur ces solutions, qui permettent de réaliser jusqu'à 10% d'économies.
> Lire l'article

#REALITEVIRTUELLE

[L'instant tech] Comment l'holographie ouvre la voie à la (vraie) 3D dans la réalité virtuelle

L'institut de recherche technologique b<>com s'intéresse de près à l'holographie, une technologie qui permet d'afficher des objets en trois dimensions dans l'espace et pourrait remplacer les illusions utilisées dans le cinéma 3D ou la réalité virtuelle , souvent synonymes d'inconfort. Son premier prototype – un casque de réalité virtuelle – démontre sa faisabilité.
> Lire l'article

#METAVERS

[L'instant tech] Conception, ergonomie, formation… Avec ses usines virtuelles, Skyreal s'approche du « métavers industriel »

En images L'INSTANT TECH TECHNOS ET INNOVATIONS SIMULATION [L'instant tech] Conception, ergonomie, formation… Avec ses usines virtuelles, Skyreal s'approche du « métavers industriel » Aide à la conception de tuyaux, formation à l'assemblage de carter moteurs… L'Usine Nouvelle a pu tester la solution de simulation d'usine en réalité virtuelle de Skyreal. Immersive, collaborative et affichée en couleurs fluorescentes grâce au moteur graphique Unreal Engine, elle s'approche de ce que pourrait être un «métavers industriel», fait valoir la start-up.
> Lire l'article

#BLOCKCHAIN

[L'instant tech] Exaion, la filiale d'EDF qui automatise les projets blockchain et se veut bas carbone

La filiale blockchain d'EDF, Exaion, a été présentée le 12 décembre sur la plateforme Exaion Node, qui vise à faciliter le développement par les entreprises de projets basés sur la technologie des chaînes de blocs. Elle met sur son mix énergétique bas carbone et des protocoles peu énergivores pour en limiter l'impact environnemental. 
> Lire l'article

#EUROPE

Atos à l’affût des solutions pour construire des supercalculateurs embarquant des technologies européennes

Alors qu’il dépend aujourd’hui exclusivement de processeurs américains pour ses supercalculateurs, Atos suit de près les initiatives de développement de processeurs européens. Le constructeur français pourrait commencer à embarquer ces technologies Made in Europe en 2023. De quoi répondre à la montée des exigences de souveraineté dans le calcul intensif tant chez les Etats que chez les grands industriels.
> Lire l'article

Create a novel data management and storage platform for exascale computing

Article issu de l'atelier Stockage "Chasing the Exabyte" offert par Pure Storage
The IO Software for Exascale Architecture (IO-SEA) project is part of EuroHPC and is being pursued collaboratively across Europe by partners Atos, CEA, CEITEC, ECMWF, FZJ, ICHEC, IT4I, JGU Mainz, KTH, ParTec and Seagate. It aims to create a novel data management and storage platform for exascale computing based on Hierarchical Storage Management (HSM) and on-demand provisioning of storage services. One of its core tools is an API for the storage system that allows user applications to do semantic tagging of the data. It’s called Data Access and Storage application Interface (DASI). Another key element is ephemeral data lifecycle management, where storage provisioning services are brought up as directed by a user-specified workflow. This is achieved using data nodes that can be summoned dynamically as needed, unlike traditional fixed endpoints. They are also compatible with a variety of compute architectures (many-core CPU, CPU and GPU, EPI...), and multiple data nodes can serve independent compute nodes. These nodes work with multi-tiered storage that goes from NVMe devices to SSD and HDD, all the way to tapes for longer term storage. While they’re slower, they’re also cheaper and have a larger capacity. The goal of the IO-SEA project is to integrate them in a way that's performant and seamless for the user, which is where hierarchical storage management comes into play. Using a HSM solution for object stores makes it possible to use NVMe devices, SSD, HDD and tapes inside the same storage tier, therefore making it possible to complete the entire data lifecycle inside the same system. That’s because these tiers are abstractions of a physical storage system that mix multiple storage types, much like an object store is an abstraction to facilitate the storing and retrieval of unstructured data. Those tiers are characterized by things like bandwidth, capacity, reliability, which is bundled as metadata into the HSM object as it's being passed around the system. This way, pieces of the data can exist on different tiers as needed by the system. A key component of the IO-SEA system is Hestia, a library that allows the migration of data between multiple object stores in different network locations via a distributed copy tool. Two types of object stores are supported. The first is Motr, developed by Seagate. It’s a distributed object store targeted and built for exoscale applications, and it uses NVRAM, SSD & HDD. The second is Phobos, developped by the CEA, which is used for tapes and is also relevant for exoscale. The challenge lies in getting these two store types to talk to each other in a way that the rest of the system doesn't have to care about it. And the goal is to have not just data stores, but also policy engines when moving the data and receiving user instructions. This is complemented by instrumentation tools that monitor I/O behaviors to provide feedback and model data workflows. At this point, the IO-SEA project is two years old with one year to go before the first meaningful release. The teams are finishing up each component and getting them all to work together. One of the main focuses is deploying the system on a prototype exascale cluster to test it. A few real applications are being used with it, like weather modeling and quantum chromodynamics. It is all open source, so interested parties are welcome to take a look at the github repositories.

Detecting periodic I/O behavior using frequency techniques

Article issu de l'atelier Stockage "Chasing the Exabyte" offert par Pure Storage
This project is about detecting periodic I/O behavior using frequency techniques. It is a collaboration between the Technical University of Darmstadt and the University of Bordeaux-Inria. It also is part of the DEEP SEA project as well as of the Admire project. Applications tend to alternate between compute and I/O phases. And while compute phases are usually allocated to a user exclusively, I/O, which is a shared resource, has several problems like variability, contention and low utilization. The project demonstrates an approach which could decrease I/O contention as a step towards exascale systems. By knowing the temporal I/O behavior of the system you could know or how much resources your application requires and for how long, as well as whether it's okay to share them with others or not. I/O tends to be periodic in HPC (periodicity being the time between the start of two consecutive I/O phases), and this can be used for contention avoidance strategies. This is helpful for HPC to help enhance the system throughput, for example by improving I/O scheduling, burst buffers management, I/O-aware batch scheduling and so on. However in practice it’s difficult to precisely define the time between the end of one phase and the start of another because the thresholds you choose are applicaton and system dependent. The project uses frequency techniques to better detect these thresholds. Its approach is implemented in four steps: First, the fluctuation of the bandwidth over time is treated as a discrete signal. Second, a discrete Fourier transformation (DFT) is applied on that signal. Third, one must find the dominant frequency which tells you what the periodicity of the I/O is. Last, it produces a confidence metric that can be used to assess the exactitude of the measurement Using that method, not only can we predict the periodicity, but also the presence of I/O. It can be performed offline as well as online, during the execution of a job, which is preferable as it gives more accurate results. There are also several parameters you can tune for optimal detection and performance. The work will be made publically available next month for those who wish to test it. In the future, it will be integrated into the Admire project, which has a monitoring framework. As for the next step of the project, it will be to examine different processing techniques, like the wavelet transformation.

Biomemory développe une solution de stockage sur ADN.

Article issu de l'atelier Stockage "Chasing the Exabyte" offert par Pure Storage
Biomemory développe une solution de stockage sur ADN. Pourquoi l’ADN ? Car les supports de stockage traditionnels – disques durs, SSD et bandes magnétiques – ne peuvent plus suivre l’explosion du nombre de données. Il est estimé que de 30% de données conservées aujourd’hui, on passera à seulement 3% à l’avenir, forçant les entreprises à faire des arbitrages de plus en plus difficiles. Ces supports de stockage sont également fragiles. Les disques durs et SSD doivent être renouvelés tous les trois à quatre ans. L’ADN a trois avantages qui lui permettent de répondre à ces problématiques. Sa stabilité, 10 000 fois supérieure aux supports actuels. Son inertie, car il peut durer 50 000 ans tant qu’on le préserve de trois facteurs : les UVs, l’oxygène et les solvants. Et surtout son extraordinaire densité. En théorie, 100 grammes d’ADN peuvent contenir 100 zettaoctets, soit l’ensemble des données conservées dans le monde aujourd’hui. En pratique, cela prendrait la taille de quelques baies de stockages. Le problème est que la synthétisation classique de l’ADN est trop complexe et coûteuse pour qu’il puisse être utilisé de cette manière. Biomemory a donc adopté une approche novatrice qui réutilise au maximum les phénomènes du vivants. Les autres entreprises du secteur synthétisent l’ADN par la chimie, de la même manière que les laboratoires pharmaceutiques, produisant des millions de brins d’ADN très courts (oligos) et désorganisés qu’il est difficile d’exploiter. Biomemory s’appuie sur la biologie de synthèse pour créer des plasmides. Ces polymères circulaires, plus simples que les chromosomes, sont très utilisés dans les laboratoires du monde entier. Ils sont déjà beaucoup plus gros que les oligos à la base, et comme la matière première est le sucre, il est facile de les dupliquer à répétition, puis de les assembler grâce à des enzymes pour créer au final d’énormes molécules. La stratégie de Biomemory est de recréer l’équivalent d’un disque dur de cette manière, et elle appelle cette technologie brevetée DNA Drive. Elle est la seule entreprise au monde à la maîtriser. DNA Drive permet de créer un « disque » de n’importe quelle taille, jusqu’à 1000 zettaoctets si nécessaire. Il est facile à copier, produit très peu d'erreurs et peut intégrer tout type de fichier. Biomemory développe aussi un système de fichier optimisé pour l'ADN, qui permettra la compression et l'accès direct. Une première version de ce disque ADN, de la taille d’un grain de sel, a été produite il y a quelques années. Elle est déposée aux archives nationales et contient 100 milliards de copies de la déclaration des droits de l'Homme. L’objectif final de Biomemory est que sa technologie fonctionne de façon transparente avec les datacenters, sans qu’ils aient à être adaptés. Tout se passe à l’intérieur du système de stockage. L’entreprise développe également des supports de stockage amovibles qu’elle appelle DNA Cards, et permettent de passer d'un serveur à l'autre, d’être placées dans un coffre-fort, etc. La différence la plus notable par rapport aux technologies actuelles est que l’écriture sur le disque est impossible sans nouveau matériau. Le système fonctionne donc plus comme une imprimante, pour laquelle Biomemory doit fournir l’équivalent de cartouches d’encre. Ce stockage biologique, avec une faible empreinte environnementale et 100% fabriqué en France est, selon Biomemory, le futur du stockage en datacenter. La technologie reste encore proche du laboratoire, mais l’entreprise estime qu’elle pourra remplacer les bandes magnétiques pour certains usages d’ici 2030. 

Accélérer l'innovation: pourquoi cela vaut-il la peine de mettre à niveau votre matériel informatique?

Article offert par notre partenaire
AMD
Sur le marché concurrentiel d'aujourd'hui, votre entreprise doit faire des investissements technologiques stratégiques pour garantir l'efficacité, la sécurité et la compétitivité à long terme. De nombreuses entreprises négligent d'investir dans du nouveau matériel, tel que des serveurs, par crainte du coût initial. Pourtant, le fait de ne pas mettre à niveau et de ne pas entretenir les serveurs peut souvent entraîner des coûts d'investissement et d'exploitation plus élevés. Cela signifie que les dépenses quotidiennes associées à un matériel obsolète peuvent rapidement dépasser les temps d'arrêt à court terme ou l'investissement initial nécessaire pour un nouveau système.

Les entreprises qui passent à de nouveaux systèmes ont plus de chances d'accéder à des technologies telles que l'intelligence artificielle (IA) et l'analyse des données massives (BDA), qui peuvent leur permettre de prendre des décisions plus rapidement, d'acquérir de nouvelles connaissances et d'augmenter leur productivité comme jamais auparavant. Cela signifie que les organisations qui continuent d'exploiter des systèmes vieillissants risquent de prendre du retard sur leurs concurrents en matière d'innovation, ainsi que de s'aliéner des clients et des consommateurs qui exigent des expériences modernes et personnalisées.

Grâce au nombre élevé de cœurs et à l'évolutivité des serveurs basés sur les processeurs AMD EPYC™ de 3e génération' les entreprises peuvent facilement héberger des applications telles que l'apprentissage automatique (ML) et les simulations scientifiques, et tirer le meilleur parti des nouvelles capacités en matière d'intelligence artificielle (IA), de calcul haute performance (HPC) et d'analyse de données. 

À une époque où les données sont plus vitales que jamais, et où la sécurité et les performances sont primordiales, les processeurs AMD EPYC™ de 3e génération constituent un choix judicieux pour les organisations qui cherchent à mettre à niveau leur matériel obsolète. Non seulement cela peut aider votre entreprise à réduire le coût total de possession (TCO), mais cela peut supercharger la productivité et l'agilité dans un marché en constante évolution. Les calculateurs en ligne d'AMD peuvent aider à comparer de manière compétitive les performances et les coûts de différents processeurs, les économies d'énergie prévues, les émissions de CO2 et bien plus encore. Pour accéder à ces outils et en savoir plus sur nos produits, rendez-vous sur: https://www.amd.com/en/processors/epyc-tools. 

Hannover Messe 2023: Hewlett Packard Enterprise and Aleph Alpha demonstrate generative AI for manufacturing

Article offert par notre partenaire
HPE
# Un robot pour réparer les robots
A la Foire de Hanovre, en Allemagne, le groupe américain HPE a présenté un prototype d'assistant virtuel doté d'une IA générative, capable de dialoguer avec les employés d'une usine et de les aider à résoudre des problèmes techniques. Le prototype utilise le langage et les images pour communiquer avec les humains et s'appuie sur le robot conversationnel développé par la start-up allemande Aleph Alpha. Cette solution innovante illustre le potentiel de l'IA générative, qui apprend de données existantes pour générer de nouveaux contenus. Le prototype est le fruit d'une collaboration entre HPE et Aleph Alpha, qui est considérée comme l'un des principaux concurrents européens de ChatGPT, le robot conversationnel développé par OpenAI. Aleph Alpha est une jeune start-up fondée en 2021, qui compte une cinquantaine de personnes et qui se spécialise dans l'IA générative appliquée à différents domaines comme la santé, l'éducation ou l'industrie. 

#L'usine 4.0, une révolution numérique et écologique 
L'IA fait partie des technologies clés de la quatrième révolution industrielle, appelée aussi industrie 4.0. L'industrie 4.0 intègre aussi les enjeux du développement durable, en visant une usine plus verte, qui réduit sa consommation d'énergie et ses déchets. 

# Un défi humain et organisationnel 
Pour réussir le passage à l'industrie 4.0, il ne suffit pas d'accumuler les innovations technologiques. L'intelligence artificielle à l'usine est donc un enjeu stratégique pour les industriels, qui doivent se saisir de cette opportunité pour gagner en compétitivité et en durabilité.

Nimbix Federated: a comprehensive architecture for secure, cloud-managed, multi-site supercomputing as-a-service

Article offert par notre partenaire
Eviden
High-performance computing (HPC) is a complex ecosystem that is increasingly being democratized by cloud and cloud-like technologies. This increased accessibility enables engineers and scientists to consume highly advanced resources without extensive IT expertise, advancing the digital transformation of the physical world. Now that industry has had a taste of on-demand supercomputing, the hunger for faster, more capable systems is growing. What has become clear is that public hyperscale clouds - while incredibly capable - simply cannot match the performance and raw throughput of the world’s premier supercomputers. For industry to continue to enjoy the benefits of supercomputing, it needs increased access to top-performing supercomputers, which comes with high direct and indirect costs. Besides large capital investments (or lease commitments), users looking to leverage HPC must recruit talent, build practices and processes, and suffer extraordinarily long lead-times due to global supply chain bottlenecks that simply can’t keep up with the increasing demand for advanced computing components and systems. This translates to months - or even years – of delays that severely limit ROI as it is measured by private enterprises. That’s assuming a successful roll-out, which is no guarantee. Even the most expert supercomputer builders and operators suffer setbacks regularly! At its pinnacle, HPC pushes the envelope of physics so severely that failures are a fact of life, both at the deployment stage as well as the ongoing operational stages. Within a few years, it’s time to do it all over again, because the next generation of supercomputers are so much more compelling. Riding this giant hamster wheel is a labor of love for those skilled in the art, but presents serious challenges and major barriers to entry for pragmatic industrial users looking to get ever more complex work done faster. Cloud computing drives a compelling bargain for many use cases, even in the high-performance space. Users have access to as much compute as they can deploy (or afford) at generally competitive on-demand rates. Unfortunately, when measured in terms of cost per job, diminishing returns on scalability mean that the numbers don’t always make good business sense. Additionally, while cloud storage is cheap and plentiful, high-end storage is not. Customers pay dearly for increased input/output operations per second (IOPS) and advanced software features like parallelism. Plus, the availability of high-end cloud storage, compute or networking is far more limited than the general-purpose tiers. This means that users often must wait for resources or settle for fewer than they need. Once again, the supercomputer is worth a good look, despite its complexity and cost. Thankfully, governments and large organizations continue to invest heavily in HPC research, with an eye toward accessibility for the private sector. For example, the European High Performance Computing Joint Undertaking (EuroHPC JU) is focusing on building a world-class supercomputing ecosystem. Elsewhere, including in the United States, large direct investment continues to flow from massive funding bodies to advance scientific research in fields such as climate, healthcare and energy. What’s unique about many of these initiatives is that they require participating centers to open a portion of their capacity to industrial users. In theory, this shouldn’t pose much of a problem, because HPC operators provide users with access to systems day in and day out. In practice, however, there are major challenges, including:
  • Governance around data and geography
  • Skill gaps between industrial users and research users
  • Software licensing
  • Service-level agreements (SLAs) that private businesses expect from providers
  • Proper utilization, accounting and monitoring
  • Billing
  • Compliance with various rules and regulations for industry and government-funded research institutions

There are countless other challenges as well, each of which affects end users and operators alike. In response to this situation, Atos launched the Nimbix Supercomputing Suite in 2022 - a set of flexible, secure high-performance computing (HPC) as-a-service solutions. This as-a-service model for HPC, AI and quantum in the cloud provides access to one of the broadest HPC and supercomputing portfolios - from hardware to bare metal as-a-service to the democratization of advanced computing in the cloud across public and private data centers. It offers elastic, dedicated and federated supercomputing consumption models, but for the purposes of this publication, we will focus on federated only. Nimbix Federated, a key pillar of the Nimbix Supercomputing Suite, helps solve the problems of cost, complexity and performance. For end users, it represents the state-of-the-art in responsive user interfaces, allowing point and click access from any device, any time, on any network. The rich catalog of ready-to-run workflows represents the most popular applications and vendors serving the engineering/simulation, life sciences and data science/AI spaces. These are the same applications users are already accustomed to running on their workstations or small clusters, tuned for maximum efficiency and delivered globally from the HyperHub™ application marketplace. For business users, the JARVICE platform that powers Nimbix Federated delivers granular accounting, cost-controls and project management tools. And finally, for operators, JARVICE allows easy integration into the global Nimbix Federated control plane, which can be located entirely within a specific geography (e.g. the European Union), and accessible ubiquitously from the public cloud. Centers looking to offer capacity via Nimbix Federated control the pricing, resource limits and “shaping,” and enjoy automatic monetization any time users consume their systems. Atos also supports the option of a private federation with its own restricted control plane, for groups of operators looking to further control access (e.g. within specific domains or countries). Operators can choose to deploy Kubernetes on compute nodes for maximum isolation and flexibility, or leverage their existing Slurm and Singularity deployments without any additional software configuration management overhead. JARVICE provides a consistent user experience across virtually any containerized infrastructure and platform. General Architecture and Operations Nimbix Federated was designed from the ground up for multi-cluster, multi-cloud and multi-tenant operations. The underlying platform has powered Nimbix Elastic (“The Nimbix Cloud”) for the past decade, facilitating millions of large-scale jobs for thousands of users in nearly 70 countries. The control plane is a service-oriented architecture (SOA) divided into two main parts: “Upstream”, which is limited to one per deployment, covers functions such as:
  • Web-based user interface
  • Public API
  • Business layer
  • High-level scheduling
  • License-based queuing
  • SSO

“Downstream��, which fronts each compute cluster connected to a control plane, covers functions such as:
  • Cluster-specific scheduling
  • Persistent storage
  • Compute

There is a “1 to many” relationship between the upstream and downstream components of a deployment. All control plane components - including the downstream agent - run as services on Kubernetes. This ensures global deployment capabilities (on any cloud or on-premises infrastructure), as well as fault tolerance and high availability. Operators choosing to interface with existing Slurm clusters simply need the ability to access the login node via SSH (and authorized private keys), using a single “service” user account. Two models are supported: one with a Kubernetes cluster in proximity to Slurm, and the other a “direct-to-Slurm” mode that can be driven directly from the cloud. For the former, operators must expose HTTPS to the upstream control plane, while for the latter, SSH. Similarly, when running compute directly on Kubernetes, an HTTPS port must be exposed to the control plane. Remote Access End users connect to Nimbix Federated over any network that can reach it. The control plane may reside in a central, continental location, while individual compute clusters may be spread across a large geography. For visualization jobs, users connect directly to the downstream(s) hosting them from their browser. The same HTTP(s) port that exposes the downstream API can proxy browser-based remote display sessions securely and with minimal latency. For example, an end-user residing in Finland, connecting to the global Nimbix Federated control plane in central Europe, does not need to proxy via the control plane to access sessions remotely on a provider’s downstream cluster in Finland. Users with access to multiple federated endpoints can further optimize their latency by selecting the cluster geographically nearest to them for compute and storage. The platform user interface provides a simple drop-down menu to change between federated zones. Commercial Software Licensing Nimbix Federated provides the ability to assign license servers to tenants and users. Some applications support on-demand licensing and do not require deployment of persistent license servers. Naturally, for free and opensource software, license servers are not a concern. ISVs are free to provide their own click-through end-user license agreements (EULAs) in the web portal when users run applications from HyperHub™ application marketplace. The platform also supports advanced license-based queuing, with per-project maximums and floors, and fair-share scheduling of license checkouts. Conclusion HPC will continue to be the innovation engine for scientific and industrial breakthroughs. On our journey towards exascale, it is critical to achieve new heights in performance with unrivaled system efficiency, while democratizing access to these valuable HPC resources to wider communities. The Nimbix Federated model offers a “win-win” scenario to both HPC operators and end-users looking for access to solve their complex problems.

Créer un centre d'excellence AI/HPC 

Article offert par notre partenaire
DDN
Le lancement d'un nouveau programme stratégique d'IA ou de calcul intensif peut être une perspective intimidante, mais les possibilités de transformation de la recherche et de l'innovation pour l'industrie, le commerce ou les organismes publics en font un investissement convaincant. 

Toutefois, ces systèmes stratégiques peuvent être difficiles à déployer à grande échelle, en particulier s'il est nécessaire de partager cet investissement entre plusieurs domaines de recherche. La création d'un centre d'excellence en IA/HPC  permet de concentrer les ressources, l'expertise, d'accélérer la collaboration entre les différentes équipes, de maximiser le retour sur cet investissement stratégique, et d'encourager la collaboration inter-metier atour d'un pôle partagé de personnes et de compétences afin d'accélérer le transfert de connaissances.
Le stockage optimisé de DDN est un élément clé des systèmes d'IA et de HPC à l'échelle, car il fournit les performance nécessaires aux charges de travail les plus extrêmes. Grâce à la technologie de stockage de DDN, les équipes de recherche peuvent atteindre les niveaux de performance requis pour les charges de travail les plus importantes, tout en garantissant la fiabilité et la disponibilité des données.  

Découvrez pourquoi DDN est le fournisseur le plus performant en matière d'IA et de HPC à l'échelle - rencontrez-nous sur notre stand Teratec #D06 les 31 mai et 1er juin, ou rejoignez-nous lors de cette session :   Le jeudi 1er juin à 14h45, Dr. James Coomer, VP Products chez DDN, présentera Addressing data challenges of the second wave of AI (Relever les défis liés aux données de la deuxième vague d'IA).    

Le calcul haute performance (HPC) joue un rôle essentiel dans l'Intelligence Artificielle (IA), 

Article offert par notre partenaire
Altair
Altair s’impose comme leader dans le calcul scientifique grâce à la convergence de la simulation numérique, du HPC et de l’IA.

Le calcul haute performance (HPC)  joue un rôle essentiel dans l'Intelligence Artificielle (IA, la simulation et les jumeaux numériques en fournissant la puissance de calcul et l'infrastructure nécessaire pour effectuer des calculs complexes et gourmands en données. Altair facilite l'accès et propose une gestion intuitive et efficace des ressources HPC, que ces ressources soient dans des centres de données sur site, ou dans le Cloud. Altair est le seul partenaire d'innovation qui peut offrir la simulation, l'IA, le jumeau numérique et le HPC, le tout convergé en une seule solution, personnalisée selon les besoins de chaque client. 

Dans le centre de données et dans le cloud, les outils HPC de pointe d'Altair vous permettent d'orchestrer, de visualiser, d'optimiser et d'analyser vos charges de travail les plus exigeantes, d'effectuer facilement la migration vers le cloud et d'éliminer les goulots d'étranglement d'E/S. Les solutions de gestion de workloads d'Altair améliorent la productivité, optimisent l'utilisation, l'efficacité tout en simplifiant la gestion des clusters, des clouds et des supercalculateurs - allant des plus grands workloads HPC aux millions de petites tâches à haut débit. Altair offre des décennies d'expertise pour aider les entreprises à répondre à leurs besoins en matière d'accès et de gestion efficaces des ressources HPC, en s’associant à des leaders du secteur pour aider les entreprises à naviguer dans le paysage complexe du HPC dans le cloud. 

Nous automatisons et améliorons la prise de décision humaine avec le Calcul Haute Performance. Nous créons des jumeaux numériques et des modèles intelligents exploitant la convergence entre la simulation, l’IA et le Calcul haute performance. Nous vous accompagnons pour vous permettre de prendre des décisions éclairées, pour être plus compétitive dans un monde toujours plus connecté, tout en créant un avenir plus écologique et durable. Pour plus informations, visitez https://altairengineering.fr/  

Le CCRT, un centre de calcul au service de l’industrie depuis 20 ans

Article offert par notre partenaire
CEA
Vingt ans déjà que le CEA et ses partenaires partagent des machines toujours plus puissantes pour répondre à des besoins industriels ou de recherche en HPC, traitement de données et IA ! Le succès du CCRT repose sur une relation de confiance, solide et pérenne, établie sur la base d’un engagement pluriannuel et d’une dynamique d’échanges (formations, séminaires technologiques et scientifiques). Situé au sein du TGCC, en Essonne, le Centre de Calcul Recherche et Technologie (https://www-ccrt.cea.fr/) s’appuie sur l’expertise du CEA en co-développement et administration de grands systèmes pour fournir un environnement de production robuste et sécurisé, ainsi que des services innovants (stockage, visualisation distante, virtualisation) et un support complet aux utilisateurs. Aujourd’hui, les vingt partenaires du CCRT ont accès à la machine Topaze, installée en 2021 par Atos et délivrant plus de 10 Pflops grâce à 864 nœuds scalaires (110 592 cœurs AMD Milan) et 75 nœuds de calcul accélérés (300 GPU Nvidia A100). Un stockage d’une capacité de 3 Po, fourni par DDN, complète l’ensemble. Le CCRT se projette également sur l’avenir à l’aide d’un émulateur quantique Atos QLM 30. Rencontrez l’équipe CEA sur le stand du forum et prenez date pour la journée de célébration des 20 ans du CCRT le 5 décembre 2023. 

Intel est à l’avant-garde du développement de nouvelles technologies

Article offert par notre partenaire
Intel
 Intel est à l’avant-garde du développement de nouvelles technologies et solutions de semi-conducteurs dédiées à un monde de plus en plus intelligent et connecté. Nous travaillons à faire progresser la conception et la fabrication de semi-conducteurs afin d’aider nos clients à relever leurs défis grâce à cinq superpouvoirs : l’informatique omniprésente, la connectivité omniprésente, l’infrastructure Cloud-to-Edge, l’intelligence artificielle, ainsi que les technologies de Sensing. Ces technologies façonnent fondamentalement notre manière d’appréhender le monde en créant un pont entre l’ère analogique et l’ère numérique. Ces superpouvoirs se combinent, s’amplifient, et se renforcent mutuellement, et à mesure qu’ils deviennent plus omniprésents, débloquent à leur tour de nouvelles possibilités encore plus puissantes ; les innovations d’Intel continuent ainsi à faire progresser la transformation numérique. Chez Intel, nous aidons nos clients à créer des solutions industrielles alimentant des usines intelligentes, à élaborer des systèmes de transport intelligents simplifiant la gestion de la circulation, à utiliser les possibilités du calcul haute performance, de l’analyse de données, et de l’intelligence artificielle pour effectuer des recherches dans des domaines tels que la biochimie, l’ingénierie, l’astrophysique, l’énergie, ou encore la santé.