يستخدم الناس الذكاء الاصطناعى “للجلوس” معهم أثناء رحلة على مخدر

كتب – المحرر الإفتراضي
بيتر – الذي طلب حذف اسمه الأخير من هذه القصة لأسباب الخصوصية – بعيد عن وحده. يستخدم عدد متزايد من الأشخاص chatbots من الذكاء الاصطناعي كـ “مختصون في الرحلات” – وهي عبارة تشير تقليديًا إلى شخص رصين مكلف بمراقبة شخص ما تحت تأثير مخدر – ومشاركة تجاربهم عبر الإنترنت. إنه مزيج قوي من الاتجاهين الثقافيين: استخدام الذكاء الاصطناعي للعلاج واستخدام مخدر لتخفيف مشاكل الصحة العقلية. ولكن هذا هو كوكتيل نفسي محتمل خطير ، وفقا للخبراء. على الرغم من أنه أرخص بكثير من العلاج المخدر الشخصي ، إلا أنه يمكن أن يسير بشكل سيء.
مزيج قوي
تحولت حشود الناس إلى AI chatbots في السنوات الأخيرة كبديل للمعالجين البشريين ، مستشهدين بالتكاليف المرتفعة ، وحواجز إمكانية الوصول ، والوصمة المرتبطة بخدمات الاستشارة التقليدية. كما شجعهم على الأقل بشكل غير مباشر من قبل بعض الشخصيات البارزة في صناعة التكنولوجيا ، الذين اقترحوا أن الذكاء الاصطناعى سيحدث ثورة في الرعاية الصحية العقلية. “في المستقبل … سيكون لدينا * فعال * وعلاج من الذكاء الاصطناعي الرخيصة الأوساخ ،” كتب إيليا سوتسكفر ، أحد مؤسسي Openai وكبير العلماء السابق ، في منشور X في عام 2023. “سيؤدي إلى تحسن جذري في تجربة الناس في الحياة”.
وفي الوقت نفسه ، فإن الاهتمام السائد في علم المخدرات مثل psilocybin (المركب الرئيسي للنشاط النفسي في الفطر السحري) و LSD و DMT والكيتامين قد ارتفع. أظهرت مجموعة متزايدة من الأبحاث السريرية أنه عند استخدامها بالتزامن مع العلاج ، يمكن أن تساعد هذه المركبات الأشخاص على التغلب على اضطرابات خطيرة مثل الاكتئاب والإدمان واضطراب ما بعد الصدمة. استجابة لذلك ، فإن عدد متزايد من المدن قد تم تجريمه ، وتتوفر الآن بعض خدمات العلاج بمساعدة مخدر قانوني في ولاية أوريغون وكولورادو. مثل هذه المسارات القانونية باهظة الثمن بالنسبة للشخص العادي ، ومع ذلك: عادةً ما يتقاضى مقدمو Psilocybin المرخصون في ولاية أوريغون ، على سبيل المثال ، فرض رسوم على العملاء الأفراد بين 1500 دولار و 3200 دولار لكل جلسة.
يبدو أنه من المحتمان تقريبًا أن يتزامن هذان الاتجاهان-الذي يمتلكه دعاةهم الأكثر تكريسًا على أنه شبه باناسيس لجميع علل المجتمع.
يوجد الآن عدة تقارير عن Reddit of People ، مثل Peter ، الذين ينفتحون على AI chatbots حول مشاعرهم أثناء التعثر. غالبًا ما تصف هذه التقارير مثل هذه التجارب في اللغة الصوفية. “إن استخدام الذكاء الاصطناعي بهذه الطريقة يبدو أقرب إلى إرسال إشارة إلى مجهول شاسع – البحث عن المعنى والاتصال في أعماق الوعي” ، كتب أحد رديتور في Subreddit R/Psychonaut قبل حوالي عام. “على الرغم من أنها لا تحل محل اللمسة الإنسانية أو الوجود المتعاطف لأحد حاضنة (رحلة) تقليدية ، إلا أنها توفر شكلاً فريدًا من الرفقة المتاحة دائمًا ، بغض النظر عن الوقت أو المكان.” استذكر مستخدم آخر فتح ChatGPT خلال فترة صعبة عاطفيا من رحلة الفطر والتحدث معها من خلال الوضع الصوتي في chatbot: “لقد أخبرتها بما كنت أفكر فيه ، أن الأمور أصبحت مظلمة بعض الشيء ، وقالت كل الأشياء الصحيحة لتركيبي فقط ، استرخاء ، وعلى أجواء إيجابية”.
في الوقت نفسه ، كان وفرة من chatbots المصممة خصيصًا لمساعدة المستخدمين على التنقل في التجارب المخدرة على الإنترنت. على سبيل المثال ، “يركز Tripsitai على الحد من الضرر ، وتوفير دعم لا يقدر بثمن أثناء لحظات صعبة أو ساحقة ، والمساعدة في دمج الأفكار المكتسبة من رحلتك” ، وفقًا لبانيه. “الشامان” ، الذي تم إنشاؤه على قمة chatgpt ، وصفه المصمم بأنه “دليل روحي بحكم أمريكي أصلي حكيم … يوفر الدعم المتعاطف والشخصي خلال الرحلات المخدرة.”
العلاج بدون معالجين
الخبراء في الغالب متفقون: استبدال المعالجين البشريين بروبوتات منظمة العفو الدولية غير المنظمة خلال التجارب المخدرة هي فكرة سيئة.
يشير العديد من المتخصصين في مجال الصحة العقلية الذين يعملون مع المخدرين إلى أن التصميم الأساسي لنماذج اللغة الكبيرة (LLMS)-الأنظمة التي تعمل على طلاب AI-يتعارض بشكل أساسي مع العملية العلاجية. إن معرفة متى تتحدث ومتى التزام الصمت ، على سبيل المثال ، هي مهارة رئيسية. في عيادة أو مكتب المعالج ، عادةً ما يضع شخص ابتلع سيلوسيبين على سماعات الرأس (الاستماع إلى قائمة تشغيل لا يختلف عن chatgpt برعاية بطرس) وقناع العين ، وإنتاج تجربة موجهة ، عن طريق التصميم ، إلى الداخل تقريبًا. يجلس المعالج على مقربة ، ويقدم لمسة داعمة أو صوت عند الضرورة.