juin 2023
L M M J V S D
 1234
567891011
12131415161718
19202122232425
2627282930  
  • Cybersécurité : 2023, année noire ? Top des pires menaces jeudi 1 juin 2023
    En 2022, les experts tablaient sur le machine learning pour améliorer la cybersécurité. Certes, mais il s’avèrent que ces technologies … Cet article Cybersécurité : 2023, année noire ? Top des pires menaces a été publié sur LEBIGDATA.FR.  […]Tout lire → Cybersécurité : 2023, année noire ? Top des pires menaces
    Elina S.
  • ChatGPT : quels risques pour les données de votre entreprise ? jeudi 1 juin 2023
    ChatGPT connaît une croissance record avec 100 millions d’utilisateurs mensuels actifs. Les entreprises doivent donc comprendre les limites de ChatGPT … Cet article ChatGPT : quels risques pour les données de votre entreprise ? a été publié sur LEBIGDATA.FR.  […]Tout lire → ChatGPT : quels risques pour les données de votre entreprise ?
    Nirina
  • Ces pubs générées par l’IA vont vous mettre mal à l’aise jeudi 1 juin 2023
    L’IA révolutionne la publicité en repoussant ses limites, offrant un potentiel innovant pour atteindre et engager les consommateurs. L’intelligence artificielle … Cet article Ces pubs générées par l’IA vont vous mettre mal à l’aise a été publié sur LEBIGDATA.FR.  […]Tout lire → Ces pubs générées par l’IA vont vous mettre mal à l’aise
    Nirina

PrivateGPT, le ChatGPT qui ne partage pas vos données personnelles : tout savoir

PrivateGPT, un modèle open source, offre aux utilisateurs la possibilité de poser des questions hors ligne en se basant sur leurs propres documents.

Samsung, JPMorgan, Apple et Amazon ont interdit à leurs employés d’utiliser ChatGPT par crainte de fuites d’informations. ChatGPT, propriété d’OpenAI, se forme en continu grâce aux interactions des utilisateurs. Une alternative est désormais disponible pour ceux qui redoutent de divulguer des données personnelles : PrivateGPT. Ce modèle open source permet aux utilisateurs de poser des questions hors ligne basées sur leurs propres documents.

PrivateGPT: Confidentialité maximale avec IA locale

PrivateGPT, développé par Iván Martínez Toro, permet l’exécution locale sur l’appareil domestique de l’utilisateur. Ainsi, il garantit la confidentialité des données. Avant toute utilisation, le téléchargement du modèle de langage large (LLM) open source gpt4all est requis. Ensuite, les fichiers pertinents sont placés dans un répertoire pour assimilation des données. Une fois le LLM entraîné, les utilisateurs peuvent poser des questions au modèle, qui répondra en utilisant les documents fournis. Cependant, il est important de disposer de ressources informatiques locales significatives, notamment un processeur performant, pour la configuration de PrivateGPT.

Selon les déclarations faites à Motherboard, PrivateGPT est actuellement une preuve de concept (POC). Il démontre la faisabilité de créer un assistant de type ChatGPT entièrement local. De cette façon, il répond aux besoins de confidentialité des entreprises. En effet, il permet d’ingérer des documents et de répondre aux questions sans que les données ne quittent l’ordinateur. De plus, il est même capable de fonctionner hors ligne.

Toro a développé l’application en réponse à l’importance de ChatGPT sur le lieu de travail. Les utilisateurs ont exprimé le besoin de retrouver l’accès à ChatGPT lorsque leurs crédits étaient épuisés. Ils ne souhaitaient pas reprendre le travail sans cette ressource. Néanmoins, des difficultés supplémentaires ont été rencontrées lorsque le service juridique a tenté de résumer un document confidentiel à l’aide de ChatGPT. Malheureusement, cela a dû être abandonné en raison des risques pour la confidentialité, comme indiqué à Motherboard.

Confidentialité renforcée : IA sécurisée et alternatives autonomes

La confidentialité préoccupe grandement lorsqu’il s’agit des modèles d’IA en ligne connectés aux serveurs d’entreprise. Un incident majeur de fuite de données s’est produit en avril, lorsque trois employés de Samsung ont accidentellement divulgué des informations sensibles à ChatGPT. Suite à cela, Bloomberg a rapporté que la publication a interdit l’utilisation de l’IA générative. Elle cherche à créer son propre modèle propriétaire pour éviter de tels problèmes.

Au-delà des risques pour les entreprises, les individus ont également hésité à utiliser le chatbot de peur de divulguer des informations personnelles. L’Italie a temporairement interdit ChatGPT pendant environ un mois. Cette décision a été motivée par des préoccupations liées à l’utilisation des données personnelles, en violation du RGPD de l’UE. OpenAI a dû remplir les exigences de l’autorité italienne de protection des données pour que l’interdiction soit levée. Cela comprenait la transparence sur l’utilisation des données et la possibilité pour les utilisateurs de corriger ou supprimer leurs informations personnelles.

La politique de données d‘OpenAI indique qu’elle utilise les données de consommation pour améliorer ses modèles. Cependant, il est possible de désactiver cette option dans les paramètres de ChatGPT. Ces incidents soulignent la nécessité de renforcer la confidentialité et la protection des données dans le développement de l’IA.

Des mesures doivent être prises pour garantir la sécurité des informations sensibles et préserver la confiance des utilisateurs. Des alternatives comme PrivateGPT émergent pour offrir une solution locale et sécurisée. Les utilisateurs peuvent poser des questions basées sur leurs propres documents sans se soucier de la divulgation des données personnelles. La confidentialité reste un enjeu crucial dans le domaine de l’IA. Il est essentiel de trouver des solutions qui protègent les intérêts des entreprises et des individus.

Cet article PrivateGPT, le ChatGPT qui ne partage pas vos données personnelles : tout savoir a été publié sur LEBIGDATA.FR.

Approfondir le Big Data ...

Commentaires clos pour le moment