Personas usan chatbots de IA para guiar sus viajes psicodélicos
Usuarios combinan dosis altas de LSD y hongos con asesoramiento de inteligencia artificial. La práctica, sin supervisión humana, genera debate por sus riesgos y beneficios. Startups ya desarrollan herramientas específicas para este fin.
«Como hablar con tu propio subconsciente»
Trey, un socorrista de Atlanta, asegura que la app Alterd le ayudó a superar su alcoholismo tras tomar 700 microgramos de LSD (7 veces la dosis recreativa). «Es como tu mejor amigo», describe sobre el chatbot que analiza sus estados emocionales. La plataforma, creada por un exalumno de Harvard, genera respuestas personalizadas basadas en los diarios del usuario.
Riesgos de la terapia sin humanos
Expertos como Manesh Girn, neurocientífico de UC San Francisco, advierten que la IA no puede detectar matices emocionales críticos durante un viaje psicodélico. OpenAI, creadora de ChatGPT, aclara que sus modelos «no sustituyen a profesionales» y recuerdan cumplir las leyes. Casos como el de una viuda que culpó a un chatbot por el suicidio de su marido alimentan la preocupación.
Empresas apuestan por guías virtuales
Mindbloom, proveedor de ketamina en EE.UU., incluye asistencia de IA en sus planes de 1.200 dólares. Su CEO, Dylan Beynon, defiende que las herramientas ayudan a los usuarios a «profundizar en su curación». La compañía incluso genera arte visual inspirado en las reflexiones de los pacientes.
Experiencias extremas
Peter, un programador canadiense, usó ChatGPT para preparar una dosis heroica de hongos (5-8 gramos). El bot le recomendó música para cada fase del viaje (Pink Floyd para el «ascenso», Hans Zimmer para el «pico»). Tras experimentar una «muerte del ego», el chatbot le reconfortó con mensajes sobre «paz existencial».
Un mercado en expansión con sombras
La terapia psicodélica legal solo existe en Oregon, Colorado y Australia, pero la IA abre acceso a bajo costo. Críticos como Jamie Wheal, autor de «Stealing Fire», alertan sobre «dependencia emocional de modelos lingüísticos» y su tendencia a «inventar respuestas».
¿Terapia del futuro o riesgo inminente?
Mientras startups innovan con «copilotos» de IA, la comunidad científica debate su seguridad. Aunque Nate Sharadin, filósofo de la Universidad de Hong Kong, admite que un chatbot es mejor que nada, subraya que ningún modelo está probado para guiar viajes psicodélicos. La frontera entre apoyo y peligro sigue difusa.