OpenAI présente ChatGPT Enterprise
OpenAI présente l'édition entreprise de ChatGPT, une avancée pour le futur de l'intégration dans les entreprises. Accès illimité, vitesse deux fois supérieure, 32 000 jetons...OpenAI commence à "récupérer de l'argent". Jusqu'à présent, ChatGPT propose trois plans d'abonnement : la version gratuite, la version Plus et la version entreprise.
En continuant à repousser les limites de l’intelligence artificielle, le développeur OpenAI a récemment mis sur le marché une version de ChatGPT spécialement conçue pour les entreprises. Cette offre professionnelle se distingue notamment par l’intégration d’une sécurité de niveau entreprise et par l’usage illimité de son dernier modèle linguistique. ChatGPT Enterprise Edition est piloté par le modèle de langage le plus avancé d’OpenAI, GPT-4. Les utilisateurs d’entreprise ont un accès prioritaire à GPT-4 et la limite d’utilisation est levée. La vitesse d’exécution est deux fois plus élevée que celle du GPT-4 ordinaire. De plus, la version entreprise permet de saisir davantage de contenu et la fenêtre contextuelle est étendue à 32 000 jetons et environ 25 000 mots.
ChatGPT Enterprise : une offre sans plafond d’utilisation
Baptisé « ChatGPT Enterprise », ce nouveau produit ne présente aucune limite d’utilisation pour son modèle GPT-4. Il intègre également diverses fonctionnalités de confidentialité et offre des outils d’analyse améliorés pour traiter des ensembles de données complexes. Dans un communiqué, OpenAI a souligné l’adoption de son produit standard ChatGPT par de grandes organisations, ce qui a généré une demande croissante des dirigeants d’entreprise pour une manière simple et sûre d’utiliser la plateforme au sein de leurs structures.
Des personnalisations et des garanties pour les entreprises
ChatGPT Enterprise propose des personnalisations de son modèle GPT pour mieux répondre aux besoins spécifiques des organisations. L’entreprise offre également des garanties sur la sécurité des informations de l’entreprise et s’engage à ne pas former de modèles sur les données des clients. En termes de sécurité des données, OpenAI fournit « le cryptage des données au repos (AES-256) et le cryptage des données en transit (TLS 1.2+) » et a déclaré que ChatGPT Enterprise a été audité et certifié pour la conformité SOC 2 Type 1. OpenAI promet également que les invites des clients et toutes les autres données ne seront pas utilisées pour la formation du modèle. Les utilisateurs peuvent contrôler la durée de conservation des données. Toute conversation supprimée sera automatiquement supprimée du système ChatGPT dans les 30 jours.
Toutefois, le développeur soutenu par Microsoft n’a pas divulgué le prix de l’abonnement à ChatGPT Enterprise, mais a noté que le produit était désormais disponible.
Une intégration déjà effective avec Microsoft
Il est important de noter que le modèle d’OpenAI est déjà utilisé dans le cadre professionnel par l’intermédiaire de Copilot de Microsoft, qui aide les utilisateurs à générer diverses tâches commerciales, y compris des documents Word, des présentations et des e-mails. OpenAI a pour objectif d’intégrer « autant d’entreprises que possible au cours des prochaines semaines« , a-t-elle ajouté.
Risques liés à l’intégration de modèles linguistiques alimentés par l’IA
Le Centre National de Sécurité Cybernétique du Royaume-Uni (NCSC) a mis en lumière les dangers de l’intégration de modèles de langage à grande échelle (LLM) alimentés par l’IA pour les entreprises. Le NCSC avertit que les développeurs n’ont pas encore totalement cerné les failles et les vulnérabilités de ces systèmes. L’agence a également noté que les LLMs pourraient comporter certains risques lorsqu’ils sont intégrés dans les processus d’entreprise d’une organisation. Elle a souligné que les chercheurs ont découvert que les LLMs « ne peuvent intrinsèquement pas faire la distinction entre une instruction et des données fournies pour aider à compléter l’instruction ».
À titre d’exemple, le NCSC a affirmé qu’un chatbot alimenté par l’IA utilisé par une banque pourrait être trompé pour envoyer de l’argent à un attaquant ou effectuer des transactions non autorisées si les invites entrées sont structurées de la bonne manière.
« Les organisations qui construisent des services utilisant des LLMs doivent être prudentes, de la même manière qu’elles le seraient si elles utilisaient un produit ou une bibliothèque de code qui était en version bêta », a ajouté le NCSC.