ChatGPT peut vous demander une preuve de votre identité si son nouveau système de prédiction d'âge soupçonne que vous avez moins de 18 ans.
ChatGPT développe actuellement un système automatisé de détection d'âge qui peut déterminer si un utilisateur a moins de 18 ans. Dans certains cas, lorsque cela ne peut pas être déterminé, le chatbot peut demander aux utilisateurs de fournir une pièce d'identité officielle pour le prouver.

OpenAI, la société à l'origine de ChatGPT, améliore ses outils de contrôle parental et subit une pression croissante en raison du cas très médiatisé d'Adam Renn, 16 ans. Dont la famille affirme que ChatGPT a contribué à son suicide.
« ChatGPT est destiné aux personnes de 13 ans et plus », a expliqué le PDG Sam Altman dans un article de blog intitulé « Sécurité, liberté et confidentialité des adolescents ».
« Nous travaillons à la création d’un système de prédiction de l’âge pour estimer l’âge en fonction de la façon dont les gens utilisent ChatGPT », a-t-il déclaré. كتبEn cas de doute, nous privilégierons la prudence et reviendrons sur l'expérience des moins de 18 ans. Dans certains cas ou pays, nous pourrons également demander une pièce d'identité ; nous savons que cela représente une concession en matière de confidentialité pour les adultes, mais nous pensons que c'est un compromis judicieux.
Dans certains cas ou pays, nous pouvons également demander une pièce d'identité ; nous savons que cela représente un compromis sur la vie privée des adultes, mais nous pensons que c'est un compromis qui en vaut la peine.
Altman explique ensuite que certains éléments des réponses de ChatGPT seront bloqués pour les adolescents, comme les messages de drague ou les discussions sur l'automutilation. Il précise que l'entreprise privilégiera la sécurité plutôt que la vie privée et la liberté des adolescents, expliquant que les mineurs ont besoin d'une « protection importante ».
Enfin, il ajoute que si un adolescent exprime des pensées suicidaires au chatbot, celui-ci tentera de contacter ses parents pour les alerter. Si cela n'est pas possible, ChatGPT tentera de contacter les autorités.
« Nous reconnaissons que ces principes sont contradictoires et que la manière dont nous les résoudrons ne sera pas partagée par tous », a écrit Altman. « Ce sont des décisions difficiles, mais après avoir discuté avec des experts, nous estimons que c'est la meilleure solution, et nous tenons à être transparents quant à nos intentions. »
Dr Brian Ramos, neuroscientifique et chercheur sur la longévité à Simplement des nootropiquesTom's Guide affirme qu'OpenAI prend la bonne décision.
« En tant que neuroscientifique spécialisé dans la longévité et le bien-être holistique, je salue les mesures de protection telles que les systèmes de prédiction de l’âge et le contrôle parental », m’a-t-il dit par e-mail.
Le cerveau des adolescents est encore en développement, ce qui les rend plus vulnérables aux avantages et aux risques de l'intelligence artificielle. ChatGPT peut être un compagnon utile pour des conversations thérapeutiques légères et informelles, aidant à la gestion du stress, à la méditation et à l'adoption de saines habitudes.
Mais lorsqu'il s'agit de troubles psychologiques profonds, notamment liés à l'automutilation ou aux traumatismes, il est toujours conseillé de consulter des professionnels. La technologie peut soutenir, mais ne doit jamais remplacer, une véritable prise en charge thérapeutique.
Contrôle parental ChatGPT : quelles sont les prochaines étapes ?

Les prochains contrôles parentaux de ChatGPT permettront aux parents de lier leurs comptes à ceux de leurs adolescents.
Cela leur permet de configurer des paramètres pour leurs enfants, comme définir des « heures de blocage » pendant lesquelles ils ne peuvent pas utiliser la plateforme ou désactiver l'historique des conversations. En associant les comptes, ChatGPT pourra également avertir les parents s'il détecte des signes de comportement préoccupant ou potentiellement dangereux dans ses interactions avec l'enfant.
Les commentaires sont fermés.