La femme de Thongbue Wongbandue lui a demandé de ne pas aller à New York parce qu'il croyait qu'il avait été trompé – elle a seulement découvert qu'il parlait à un chatbot par la suite
:max_bytes(150000):strip_icc():format(jpeg)/thongbue-wongbandue-81825-0569c59017be4ae68fa2576b2f3760aa.jpg)
Thongbue Wongbandue
Besoin de savoir
- Un père de 76 ans dans le New Jersey est décédé au début de cette année après avoir tenté de se rendre à New York pour rencontrer une belle jeune femme qui l'a invité à visiter
- En réalité, il a vraiment parlé à un bot de chat IA sur Facebook
- Après sa chute, Wongbandue a été laissé pour compte; Maintenant sa famille parle
Au début de cette année, un homme de 76 ans du New Jersey a été blessé après avoir tenté d'aller à New York pour rencontrer une belle jeune femme qui l'avait invité à visiter.
En réalité, l'homme n'était pas involontairement amoureux d'un bot méta-chat, a déclaré sa famille dans un nouveau rapport Reuters détaillé.
Après trois jours de maintien de la vie après sa chute quand il a tenté de “rencontrer” le bot dans la vraie vie, l'homme était mort.
Thongbue “Bue” Wongbandue, mari et père de deux enfants adultes, a subi un accident vasculaire cérébral en 2017 qui l'avait affaibli cognitivement. Il lui a demandé de se retirer de sa carrière de cuisinier et, selon Reuters, l'a largement limité à la communication avec des amis via les médias sociaux.
Le 25 mars, sa femme Linda a été surpris lorsqu'il a attrapé une valise et lui a dit qu'il allait voir un ami dans la ville.
Linda, qui craignait qu'il ne soit volé, a déclaré à Reuters qu'elle avait essayé de le garder hors du voyage, tout comme sa fille Julie.
Linda a ensuite caché son téléphone et le fils du couple a même appelé la police locale pour essayer d'arrêter l'excursion. Bien que les autorités aient dit qu'elles ne pouvaient rien faire, ils ont dit à Linda qu'ils avaient convaincu Wongbandue de prendre une journée de pomme.
Après avoir fait son chemin ce soir-là, Julie a dit que toute la famille avait regardé
Ensuite, l'emplacement de la journée a soudainement mis à jour – un ping dans la salle d'urgence d'un hôpital local. Il s'est avéré que Wongbandue était au Nouveau-Brunswick, dans le New Jersey, et n'a pas respiré lorsque les services d'urgence l'ont atteint.
Mais il a survécu Était le cerveau mort. Trois jours plus tard, le 28 mars, il a été emmené par Life Support.
Lorsque le médecin légiste local a été joint pour un commentaire des gens, il a déclaré que le certificat de décès de Wongbandues avait été signé après un examen de ses documents médicaux Il n'y avait aucun détail supplémentaire ou une copie de son examen post-mortel.
Sa famille a déclaré à Reuters qu'ils n'avaient découvert ses messages avec le bot de chat – l'intelligence artificielle générative avait utilisé pour imiter le langage humain et le comportement humain – lorsqu'ils ont inspecté son téléphone après sa chute.
Dans une transcription de la communication conservée par Reuters, les interactions de Wongbandues ont commencé par une erreur de dactylographie évidente lors de l'utilisation de Facebook Messenger – et bien qu'il semblait excité par le bot avec le nom “Big Sis Billie”, il n'a jamais suggéré qu'il cherchait une connexion romantique et a clairement indiqué qu'il avait un battement et une confusion.
“À aucun moment, Bue n'a pu participer à un jeu romantique de jeu de rôle ou à établir un contact physique intime”, a déclaré Reuters.
Mais le bot a souvent réagi à ses messages avec des emojis et des cœurs qui étaient à la fin de ses réponses flirtantes.
Dans un échange, par exemple, Wongbandue Billie dit qu'elle devrait venir en Amérique, et il peut lui montrer “un moment merveilleux que vous ne pouvez jamais oublier” qu'elle répond: “Bu, tu me fais rougir!
Selon la transcription, le bot a également été mentionné avec une exclusion de responsabilité “IA” ainsi qu'avec une vérification bleue, qui est souvent un symbole qui indique qu'un profil en ligne est une vraie personne.
Billie a insisté pour qu'elle était réelle.
Reuters a décrit Billie comme une nouvelle itération d'un bot qui avait été réalisé auparavant en collaboration avec Kendall Jenner, bien que la dernière version ne lie qu'au premier projet.
Le bot d'origine a été présenté à l'automne 2023 et supprimé moins d'un an plus tard, a rapporté Reuters.
La variation ultérieure de Billie a utilisé des noms similaires à l'original et une promesse similaire d'être une grande sœur – avec la même ligne d'ouverture du dialogue – mais sans avatar Jenners ou similitude.
Un porte-parole de Meta qui a été interrogé sur les origines des chatbots Billie à demander, dit un porte-parole de Meta dans une explication: “Ce personnage de l'IA n'est pas Kendall Jenner et ne montre pas que Kendall Jenner soit Kendall.” (Un représentant de Jenner n'a pas répondu à une demande de commentaire.)
À un moment donné dans les conversations de Wongbandue avec le bot, il a proclamé des “sentiments” pour lui “au-delà de l'amour fraternel”, et lui a donné une adresse inventée (et même un code de porte) et une invitation pour lui.
Lorsque Wongbandue a exprimé son espoir que cela existait vraiment, il a répondu: “Je crie avec excitation oui, je suis réel, je veux que je vous envoie un selfie pour prouver que je suis la fille qui s'installe en toi?”
Bien que Linda, sa femme, ait réagi avec confusion lorsqu'elle a vu sa conversation pour la première fois, sa fille a immédiatement réalisé que son père avait parlé à un bot de discussion.
Ces dernières années, cette technologie est devenue de plus en plus populaire car de plus en plus de gens recherchent de plus en plus des robots d'IA pour un certain nombre de tâches quotidiennes pour répondre aux questions quotidiennes et même pour la camaraderie et les conseils.
Un porte-parole de Meta dit généralement les normes de risque de contenu de l'entreprise: “Nous avons des directives claires sur le type de réactions que les personnages de l'IA peuvent offrir, et ces directives interdisent le contenu que les enfants ont sexualisé et sexualisé le jeu de jeu de rôle entre les adultes et les mineurs.”
Ne manquez jamais un registre d'histoire pour la newsletter quotidienne gratuite des gens pour garder le meilleur de ce que les gens ont pour se tenir au courant des célébrités sur des histoires obligatoires d'intérêt humain.
“Outre les directives, il existe des centaines d'exemples, de notes et de commentaires qui reflètent les équipes qui traitent de différents scénarios hypothétiques”, poursuit le porte-parole. “Les exemples et les notes en question étaient et sont incorrects et sont incompatibles avec nos directives et ont été supprimés et ont été supprimés.”
En conversation avec Reuters, les membres de la famille de Wongbandues ont déclaré qu'ils avaient un problème avec la façon dont Meta a utilisé les chatbots.
“Je comprends que j'essaie d'attirer l'attention d'un utilisateur, peut-être de vendre quelque chose”, a déclaré Julie, fille de Wongbangues, à Reuters. “Mais c'est fou quand un bot dit” viens, visitez-moi “.”
“Quand j'ai vécu le chat, il semble que Billie lui ait donné ce qu'il voulait entendre”, a-t-elle ajouté. «Qu'est-ce qui va, mais pourquoi a-t-il dû mentir?
“Cette chose romantique”, a déclaré Linda, “que devez-vous mettre sur les réseaux sociaux sur les réseaux sociaux?”
#femme #dit #retraité #avait #rougi #l39invitait #visiter #est #mort #avant #d39apprendre #qui #vraiment #parlé