Les moteurs d’IA comme ChatGPT et Perplexity bouleversent la façon de chercher des infos sur une personne, reliant en quelques minutes des fragments éparpillés qui exigeaient autrefois des heures de fouille incertaine.
Ces outils déplacent la frontière entre curiosité légitime, veille professionnelle et surveillance discrète. En restant dans les clous du RGPD, toute recherche d’identité en ligne s’appuie sur des informations publiques vérifiables et sur un recoupement de sources méthodique. Sans cette discipline, la moindre erreur vous revient brutalement comme un boomerang.
Définir son objectif et son périmètre de recherche
Avant d’interroger ChatGPT ou Perplexity sur une personne, un temps de cadrage clarifie ce que vous cherchez exactement et pour quel usage. Cette réflexion conduit à formuler la finalité de la recherche, à la consigner noir sur blanc et à la partager avec les personnes impliquées dans le projet.
Pour limiter la curiosité et structurer la démarche, définissez un périmètre de données strict : sources professionnelles, registres officiels, contenus publiés volontairement. Précisez aussi vos critères de pertinence et le niveau de détail attendu, puis listez quelques cas d’usage typiques pour guider vos prochaines recherches.
- Qualification d’un prospect avant un premier échange.
- Préparation d’un entretien de recrutement ou d’une prise de référence.
- Vérification d’un profil avant une collaboration sensible.
- Cartographie rapide des rôles clés dans une entreprise cible.
Quelles données peut-on utiliser sans s’exposer en France ?
En France, le RGPD s’applique dès que vous traitez des informations liées à une personne identifiée ou identifiable. Que ces données viennent de LinkedIn, de Pappers ou d’articles de presse, l’usage d’outils comme ChatGPT et Perplexity reste soumis aux mêmes règles de protection des données personnelles.
Le choix de traiter ces informations doit reposer sur une justification claire, documentée dans vos procédures internes. Pour les recherches professionnelles, la base la plus utilisée reste l’intérêt légitime, articulé avec une base légale RGPD explicitée, afin de savoir pourquoi et comment vous collectez ces données. Écartez systématiquement les données sensibles interdites et vérifiez la proportionnalité du traitement, en ne conservant que ce qui se rattache directement à l’objectif poursuivi.
À noter : le RGPD prévoit des amendes pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires mondial annuel en cas de manquement grave au traitement des données personnelles.
Ce qui est autorisé vs ce qui est risqué
| Action | Statut légal en France |
|---|---|
| Rechercher des informations publiques sur une personnalité publique | ✅ Autorisé |
| Due diligence professionnelle sur un partenaire commercial | ✅ Autorisé (intérêt légitime) |
| Vérification d’un candidat à un poste (données CV et LinkedIn) | ✅ Autorisé (dans limites recrutement) |
| Compiler un profil détaillé d’un particulier sans consentement | ⚠️ Risqué / potentiellement illégal |
| Utiliser des données pour du harcèlement ou de la surveillance | ❌ Illégal (pénal) |
| Revendre les profils compilés à des tiers | ❌ Illégal (violation RGPD) |
ChatGPT dans une recherche de personne : ses points forts et ses limites
ChatGPT peut agir comme assistant pour analyser le parcours d’une personne publique, à condition de rester dans un cadre légal et éthique. Utilisé avec discernement, il produit une synthèse biographique structurée à partir d’un prompt structuré, en ordonnant des informations publiques dispersées en blocs lisibles clairs.
Les limites apparaissent dès que la personne est peu visible ou que les données sont récentes. Le modèle présente un risque d’hallucinations et peut attribuer un employeur ou une date plausibles mais erronés. Toute recherche sérieuse gagne à intégrer une vérification manuelle appuyée sur des profils LinkedIn et la presse locale.
Structurer un profil sans inventer de faits
Pour guider ChatGPT, la meilleure approche consiste à décrire clairement ce que vous cherchez, plutôt que de laisser le modèle improviser. Demandez, par exemple, une trame de profil incluant biographie professionnelle, entreprises associées, présence publique, publications et mentions dans la presse. Précisez aussi que le modèle ne doit pas combler les blancs et qu’il doit signaler explicitement les informations manquantes au cours d’analyses.
Le mode Deep Research, disponible depuis 2025, permet à ChatGPT d’élaborer un plan de recherche, puis de consulter des sites pendant 5 à 30 minutes avant de produire un rapport. Pour exploiter ces résultats dans un CRM ou Notion, demandez des champs normalisés comme « entreprise actuelle », « dates de poste » ou « liens vers profils sociaux », ce qui réduit le temps en relecture manuelle.
Réduire le risque d’hallucinations par recoupement
Un bon réflexe consiste à imposer à ChatGPT une méthode de vérification claire avant d’accepter ses réponses. Indiquez dans le prompt que chaque affirmation sensible doit reposer sur une validation par sources avec URL, puis confrontez ce qui est produit à LinkedIn, à Pappers pour la France et à la presse régionale, ce qui réduit nettement les erreurs au quotidien.
Quand plusieurs réponses successives portent sur la même personne, il devient utile de demander à l’IA de comparer ses propres sorties. Collez deux versions d’un profil, puis sollicitez une liste des contradictions détectées et des zones floues. Ce travail, associé à un contrôle humain ciblé sur les éléments sensibles, limite l’impact des hallucinations et préserve un rythme de recherche rapide au fil du temps.
Perplexity répond-il mieux aux informations récentes ?
Perplexity s’appuie dès sa conception sur une couche d’IA reliée en permanence à la recherche en ligne. Chaque réponse s’appuie sur un moteur web en temps réel qui interroge des pages fraîchement indexées, avec un soin porté à la fiabilité des sources utilisées. Dans les tests publics comme SimpleQA, le mode Deep Research atteint 93,9 % de réponses correctes, ce qui convient bien aux recherches sur des personnes dès que vous visez un aperçu global plutôt qu’une enquête juridique.
Pour suivre un changement de poste, une apparition médiatique ou un communiqué publié la veille, Perplexity fournit des réponses généralement plus fraîches que celles d’un modèle coupé du web. Vous pouvez vérifier actualités récentes qui mentionnent une personne, puis contrôler grâce aux citations d’URL affichées sous la réponse, ouvrant source pour la recouper vous‑même, ce qui donne des usages concrets :
- Préparer un rendez-vous avec un dirigeant en consultant ses dernières prises de parole publiques.
- Mettre à jour un dossier de prospection avec les nominations et changements de poste de vos interlocuteurs.
- Surveiller l’apparition de polémiques ou affaires judiciaires dans la presse à propos d’une personne.
- Vérifier qu’un parcours LinkedIn ou un CV correspond à ce qui circule dans les médias et bases ouvertes.
Deep research et recherche web : quelles différences au quotidien ?
Pour interroger ChatGPT ou Perplexity au sujet d’une personne, la recherche web classique repose sur une requête unique interprétée en direct. Le système lit quelques pages, puis rassemble les éléments repérés. Cette approche convient pour confirmer une fonction actuelle, un lieu de travail, une date ou un fait.
Le mode Deep Research, apparu début 2025, procède différemment en multipliant les requêtes et en suivant un raisonnement itératif pour produire un dossier plus détaillé. Il agit comme un agent de recherche autonome guidé par un plan de recherche précis ; le temps d’exécution varie de 5 à 30 minutes, avec des quotas mensuels fixés selon l’abonnement choisi.
| Plan | Quota mensuel Deep Research |
|---|---|
| Free | 5 requêtes (version allégée après limite) |
| Plus / Team / Enterprise | 25 requêtes |
| Pro | 250 requêtes |
Quand lancer un deep research plutôt qu’une recherche simple
Pour un profil rapide avant un rendez-vous, une recherche web classique suffit généralement. Deep Research devient pertinent lorsque vous devez assembler un dossier complet sur une personne : homonymes à distinguer, carrière étalée sur quinze ans, apparitions dispersées dans la presse et les registres d’entreprises. Dans ces cas, le volume de sources à passer en revue et la complexité du sujet dépassent ce que vous pourriez gérer manuellement sans y consacrer plusieurs heures. Le mode approfondi de Perplexity atteint par exemple 93,9 % de précision sur le benchmark SimpleQA et 21,1 % au test Humanity’s Last Exam, ce qui illustre l’intérêt de ces analyses longues pour les sujets sensibles.
Rédiger une demande exploitable avec sources vérifiables
Un Deep Research efficace commence par une demande précise qui réduit les risques de confusion entre homonymes et profils voisins. Vous pouvez formuler cette requête contextualisée en indiquant prénom, nom, secteur, pays, entreprise et période étudiée, puis demander un historique de carrière, les interventions publiques et les mandats visibles dans Pappers.fr entre 2019 et 2024.
Pour pouvoir contrôler le rapport produit, demandez une liste de sources distinctes avec un lien cliquable pour chaque élément présenté dans la synthèse. Vous pouvez ajouter des consignes de citation en exigeant les URL des profils LinkedIn, des articles de presse, des décisions de justice et bases de données comme Pappers.fr, afin d’identifier les passages ou sujets à interprétation.
Gérer le temps, les quotas et la répétition des requêtes
Deep Research n’est pas instantané et reste soumis à des plafonds. Sur ChatGPT, un rapport peut prendre jusqu’à 30 minutes et vos crédits mensuels vont de 5 recherches en version gratuite à 25 pour les offres Plus, Team ou Enterprise, puis 250 pour la formule Pro entre 2025 et 2026. Perplexity limite à 5 analyses approfondies gratuites par jour.
Pour organiser votre usage, commencez par des demandes larges qui balisent le sujet, puis affinez progressivement en réduisant le périmètre des recherches. Réservez la gestion des limites les plus strictes aux dossiers prioritaires et utilisez une itération de requêtes à partir des premiers rapports plutôt que de relancer un Deep Research complet pour chaque profil étudié.
Comparer ChatGPT et Perplexity sur des critères concrets
Comparer ChatGPT et Perplexity pour la recherche de personnes revient à mesurer leur efficacité sur des tâches précises et répétables. ChatGPT s’appuie sur un modèle conversationnel très souple, tandis que Perplexity privilégie des réponses courtes, appuyées sur le web en temps réel. Pour comparer leurs usages, regardez la transparence des sources, la gestion des quotas, le coût réel par recherche et la capacité à documenter chaque profil produit de façon fiable.
Le tableau comparatif dédié à la recherche de personnes aide à visualiser d’un coup d’œil les écarts majeurs. On y lit la couverture des plateformes, la profondeur d’analyse, la qualité de synthèse et le coût estimé par enquête. La question de la conformité RGPD y figure aussi, avec l’amende de 15 millions d’euros et l’hébergement américain de Perplexity des données.
| Critère | ChatGPT | Perplexity |
|---|---|---|
| Accès au web en temps réel | Oui (avec Search activé) | Oui (natif) |
| Transparence des sources | Limitée | Excellente (chaque affirmation sourcée) |
| Deep Research | 5-30 min, 25 req/mois (Plus) | 2-4 min, 5 req/jour (gratuit) |
| Qualité de synthèse | Excellent pour les concepts complexes | Excellent pour les données récentes |
| Hallucinations | Risque modéré (à vérifier) | Risque réduit grâce aux sources citées |
| Conformité RGPD | Condamné à 15M€ d’amende (CNIL italienne) | Non conforme RGPD (base US, stockage non chiffré) |
| Prix | Gratuit (limité) / 20€ mois (Plus) | Gratuit (5 DR/jour) / ~20$/mois (Pro) |
Qualité de synthèse et traçabilité des sources
Pour un profilage de personne, la façon dont l’IA organise les informations compte autant que la quantité de données retrouvées. Perplexity facilite la vérification grâce à ses citations cliquables, tandis que ChatGPT se distingue par une structure de rapport très détaillée lorsqu’il utilise le mode Deep Research. Cette combinaison aide à passer rapidement des faits bruts à une vision synthétique exploitable.
Accès au web, données manquantes et biais possibles
L’accès au web en temps réel ne garantit pas que tout soit accessible pour autant. Certaines informations restent hors de portée, ce qui crée des angles morts, par exemple sur des profils peu visibles ou des réseaux fermés. Les deux outils héritent aussi des biais de sélection présents dans leurs sources : une surreprésentation de la presse tech ou des réseaux professionnels peut distordre le portrait généré.
Assembler un workflow avec Make, Notion et des outils OSINT
Pour orchestrer vos recherches, Make joue le rôle de chef d’orchestre tandis que Notion conserve les fiches structurées. Dans un second temps, vous pouvez configurer dans Make une automatisation de collecte depuis LinkedIn, Pappers ou vos propres fichiers puis chaîner des appels d’IA pour un enrichissement via API, sans multiplier les actions manuelles ni perdre la trace des sources utilisées.
Chaque résultat remonté par vos scénarios peut être envoyé vers Notion pour créer ou compléter une fiche de personne. Vous transformez ainsi l’outil en base Notion de référence, puis Make ajoute des propriétés chronologiques et déclenche un suivi de changements : nouveaux postes, mandats découverts, liens ajoutés par ChatGPT ou Perplexity.
- Scénarios Make pour orchestrer extractions, appels d’API et mises à jour.
- APIs OpenAI et Perplexity pour analyse, synthèse et Deep Research.
- Notion comme base structurée pour fiches de personnes et historique.
- Outils OSINT spécialisés (Pappers, Hunter.io, HaveIBeenPwned) pour données ciblées.
- Règles RGPD intégrées au workflow pour limiter la collecte et l’usage.
Collecter des données publiques sans surcollecte
La première étape consiste à définir très clairement ce qui est réellement vraiment nécessaire pour votre objectif bien précis et à cadrer la collecte avec le RGPD. Dans Make, les modules d’extraction LinkedIn se concentrent sur le titre de poste, l’entreprise, la ville et le lien de profil afin de respecter la minimisation des données et d’écarter les centres d’intérêt ou coordonnées privées. La même logique s’applique à Pappers et aux autres registres : viser uniquement les mandats, les fonctions et les dates utiles, sans élargir la collecte à l’entourage, aux commentaires ou à des pièces jointes sans lien direct avec la finalité déclarée.
Enrichir via API et normaliser les champs
Lorsque la donnée est captée, Make peut l’envoyer vers ChatGPT et Perplexity avec des paramètres : nom, entreprise, URL LinkedIn, liens d’articles, mandats Pappers. L’IA génère alors un résumé de carrière, une chronologie ou une liste de faits vérifiables, que vous récupérez dans un schéma de données appliqué à des champs bien définis.
Avant insertion dans Notion, un nettoyage des entrées s’impose : uniformiser les formats de dates, les noms d’entreprise, les villes et supprimer les doublons issus de sources OSINT. Cette normalisation facilite alors les filtres, les recherches par critère et le croisement avec d’autres bases internes ou CRM.
Centraliser dans Notion avec mises à jour et alertes
Notion devient le point de ralliement où chaque ligne correspond à une personne et chaque propriété à un attribut identifié. Make alimente les champs biographiques, les liens vers les articles découverts par Perplexity, les documents juridiques et les historiques de postes, puis cette base de profils sert de référence.
Vous pouvez paramétrer des alertes de modification via Make ou Notion : un changement de titre sur LinkedIn, l’ajout d’un mandat dans Pappers ou une interview déclenchent une mise à jour et, si besoin, une notification aux équipes de recrutement, de vente B2B ou de conformité. Ce fonctionnement garde la base vivante sans repasser sur chaque fiche.
Ajouter des outils comme Pappers, Hunter ou Have I Been Pwned
Les outils OSINT spécialisés complètent ce dispositif. Pappers fournit les mandats sociaux Pappers pour les sociétés françaises, avec les fonctions exactes, les dates de nomination et les liens vers les documents officiels. Hunter.io sert à la recherche d’email pro à partir d’un nom de domaine d’entreprise afin d’identifier un schéma d’adresses sans stocker plus de données que nécessaire.
HaveIBeenPwned permet, lui, de vérifier si une adresse email professionnelle figurant dans votre base a été compromise, ce qui peut orienter un audit de sécurité ou une due diligence. Chaque outil se branche à Make via API ou module natif, puis renvoie vers Notion uniquement les informations pertinentes au regard du RGPD.
Trier, recouper et archiver pour rester fiable
Pour rester fiable, commencez par organiser chaque information selon sa source, sa date et le niveau de vérification déjà réalisé. Une grille de fiabilité notée de 1 à 5 permet ensuite de séparer rumeurs non vérifiées, contenus générés par l’IA, articles de presse, registres officiels et décisions de justice issues d’OSINT.
Recoupez systématiquement les données fournies par ChatGPT ou Perplexity avec les registres publics, la presse locale et les bases légales comme Pappers.fr. Pour les investigations longues, consignez vos vérifications dans un journal de recherche détaillé, en notant les sources primaires, l’URL et l’horodatage des preuves associé à chaque conclusion précise.
je trouve que vous sous-estimez les risques de dépendance à la technologie. On devrait rester vigilants.
De l’interaction conviviale… peut-être pour ceux qui maitrisent la technologie, mais quid des autres qui ne sont pas à l’aise avec l’IA ?
pourquoi on aurait besoin d’automatiser autant notre vie ? On peut pas simplement parler aux gens pour en savoir plus sur eux comme a l’ancienne ?
C’est bien beau tout ca mais est-ce que c’est fiable à 100% ? J’ai entendu dire que l’IA peut se tromper trop souvent et que ca dit des betises.
Je pense que vous exagérez les avantages. L’IA a encore beaucoup de progrès à faire avant de pouvoir remplacer l’intelligence humaine.
Je suis pas convaincue. Est-ce que ces outils IA respectent vraiment la vie privée des gens ? C’est trop intrusif à mon avis.
ca parle d’mélioration de la pertinence des résultats, vous êtes surs de vous ? Et si l’outil ne comprend pas bien la complexité de ma demande ?
Est-ce qu’on peut vraiment faire confiance aux algorithmes pour comprendre nos besoins spécifiques? Chaque personne est unique.
C’est possible avec l’IA. Mais soyons curieux et prudent pour éviter des dérivée telles que Elon Musk veut le faire
Je ne suis pas d’accord avec cet article. Rien ne remplace le contact humain, surtout pour des choses comme le recrutement.