사랑 조언을 위해 챗봇에게 질문하지 마세요

챗봇에게 사랑 조언 질문하지 마세요

그가 내 앞에 앉자마자, 환자는 억울한 표정을 짓고 있었다.

“나는 데이트를 했어,” 그가 말했다. “잘 안 됐어.”

이 환자에게 그런 일이 벌어진 것은 특별한 일이 아니었다. 그는 오랫동안 로맨틱한 희망이 깨어지는 이야기를 나누어 왔다. 그런데 그가 무엇이 잘못되었는지 묻기 전에, 그는 계속해서 말했다. “그래서 나는 챗봇에게 무엇을 해야 할지 물어봤어.”

음. 뭐라고? 인공지능으로 구동되는 인간 대화의 시뮬레이션인 챗봇은 많은 이야기를 들었지만, 환자가 실제로 조언을 위해 그것을 사용했다고 말한 것은 처음이었다.

“무엇을 말해줬어?” 나는 궁금하게 물었다.

“그녀에게 내가 그녀의 가치에 관심이 있다고 말하라고 했어.”

“오. 효과가 있었어?”

“추측해 봐,” 그가 한숨을 내쉬며 손을 들어 보였다. 이 환자가 첫 번째였지만, 이제는 내 치료 실무에서 새로운 환자들이 나에게 상담하기 전에 챗봇을 상담했다고 말하는 것이 정기적으로 일어나고 있다. 대부분은 사랑과 관계 조언을 위해서지만, 자신의 아이들과의 연결 또는 경계 설정, 어긋난 우정을 정리하는 데에도 사용될 수 있다. 결과는 분명히 섞여 있다.

다른 한 환자는 자신의 친구들이 지치기 시작하면서 AI에 의존하기 시작했다. “챗봇을 망가뜨릴 수는 없으니까,” 그녀는 내게 말했다.

Grace Browne

Kelly Sullivan Walden

Sarah Gundle, PsyD

치료사로서, 나는 AI가 치료 업계에 진입할 수 있는 잠재력에 대해 동시에 놀라고 흥미롭게 생각한다. AI가 미래라는 것은 의심할 여지가 없다. 이미 그것은 자기소개서와 연설문 작성에서부터 여행과 결혼식 계획에 이르기까지 모든 것에 유용하다는 것이 증명되었다. 그렇다면 우리의 관계에도 도움이 될 수 있도록 해주지 않을까? “AI 동반자이자 관심을 가진 AI”라는 새로운 벤처인 Replika는 한 발 더 나아가서 사람들이 사랑에 빠질 수 있는 로맨틱 아바타를 만들어냈다. Character.ai와 같은 다른 사이트들은 좋아하는 허구의 캐릭터와 채팅하고 어울릴 수 있도록 해주거나, 사용자 고유의 챗봇을 만들 수 있게 해준다.

하지만 우리는 오해의 시대에 살고 있다. 이미 알고리즘들이 알지 못하는 사람들이나 악의적인 사람들 사이에 거짓 정보와 음모론을 퍼뜨리는 불안한 예들을 보았다. 그들을 우리 감정적인 삶에 들여보냈을 때 어떤 일이 벌어질까?

“AI가 사람처럼 말하더라도, 그 목표가 무엇인지 스스로에게 물어봐야 한다,” 뉴욕시 맨하탄의 아이칸 의과학교 심리치료과 부서의 조교수인 나아마 홀만은 말한다. “관계나 치료에서의 목표는 삶의 질을 향상시키는 것인 반면, AI의 목표는 가장 인용된 것을 찾는 것이다. 반드시 도움이 되어야 하는 것은 아니다.”

치료사로서, 나는 내 작업이 외부 지원을 받는 것이 도움이 될 수 있다는 것을 알고 있다. 나는 20년 동안 외상 그룹을 운영해왔고, Seeking Safety와 같은 근거에 입각한 심리교육적 구조의 지지가 더 깊은 감정적인 작업을 도울 수 있다는 것을 보았다. 결국, 원래 챗봇인 Eliza는 “가상 치료사”로 설계된 이유가 끝없이 열린 질문을 던지기 때문이었고, 여전히 사용할 수 있다. 챗봇은 사람들이 영감을 얻거나 방어 메커니즘을 분해하고 치료에 진입할 수 있도록 도와줄 수도 있다. 그러나 사람들이 기계에 지나치게 의존하는 지점은 어디인가?

“AI의 제안은 당신이 고통을 견딜 수 있도록 도와줄 수 있지만, 마치 반창고처럼 떼어내면 아무것도 변하지 않은 채로 남아있을 것입니다,” 홀만은 경고하며 말한다. 그녀는 “치료 대신에 AI를 사용할 때 신중하라”며 “치료 결과에 영향을 미치는 다양한 특성들이 AI에서 누락되고 있다. 기술, 목소리 톤과 빈정거림과 같은 개인성 특성, 그리고 공유한 역사, 신체 언어, 그리고 얼굴 표정과 같은 관계 변수는 모두 결과 연구에 중요한 측면이다. 그래서 비록 같은 말을 하고 있을지라도 결과는 다를 것입니다.”

AI가 미래의 치료에 상당한 역할을 할 수도 있지만, 지원이나 치료를 받고자 하는 사람들에게는 다른 더 나은 선택지가 있습니다. BetterHelp, Headspace, Calm과 같은 앱을 고려해보세요. 이들은 여러분을 시작할 수 있도록 도와줄 것입니다. 또는 Psychology Today의 Find a Therapist 도구나 Zencare와 같은 자원을 활용하여 근처의 치료사를 찾을 수 있습니다. 그리고 여기에 몇 가지 추가적인 선택지가 있습니다.

  1. 친구와 대화하세요. 이번 주에 가장 가까운 친구에게 전화했나요? AI는 공감할 수 없습니다. 그리고 여러분이 기분을 좋게 만들기 위한 시도가 진심이 아님을 알고 있습니다. 또한 안심을 줄 수 있는 물리적인 존재도 가지고 있지 않습니다. AI도 치료도 진정한 우정을 대신할 수 없습니다.
  2. 위험을 감수하세요. 성공적인 관계를 위해서는 위험을 감수하고 실패에 두려워하지 않아야 합니다. 챗봇은 의사소통의 실패와 상처의 생성력을 이해하지 못합니다. 관계를 수리하는 법을 배우는 것이 어떻게 가능할까요? 또한 AI에서 얻는 답변의 품질은 질문의 품질에 따라 결정됩니다. 모호한 질문은 모호한 답변을 얻게 됩니다. 관계도 마찬가지입니다. 다른 사람에게 취약함을 보이면, 그 사람도 취약함을 보이도록 유도됩니다. 이 역설적인 개념은 챗봇이 데이터베이스를 스캔하고 질문에 대한 가능한 답변이라고 예측되는 단어들을 출력하는 것과는 거리가 있을 것입니다.
  3. 본인에게 특별히 조율된 조언을 우선시하세요. 결정에 접근할 때, 특히 감정적으로 중요한 결정을 할 때는 다양한 소스로부터 데이터를 수집하는 것이 항상 유용합니다. 그러나 AI는 본인에게 특별히 조율된 조언을 제공할 수 없습니다. AI는 언제 힘든 사랑이 필요한지, 어두운 유머가 필요한지, 해결책을 고려하고자 하는지 아니면 그저 기분을 털어놓고 싶은지를 알 수 없습니다. AI는 데이터를 종합할 수 있지만, 여러분의 마음속까지 파고들 수는 없습니다. 스스로에게 질문하세요: 언제 나를 진정으로 이해한 말을 누군가가 해준 적이 있었을까요? 만약 이 질문에 답하기 어렵다면, 다른 사람들이 여러분의 말에 그런 감정을 느낀 적이 있었는지 생각해보세요.
  4. 모르는 것이나 실수한 것을 인정하세요. 챗봇은 항상 답변을 가지고 있도록 만들어졌지만, 아는 것을 모르는 것을 인정하는 것은 관계에서는 매우 중요한 도구입니다. 우리는 자신의 실패에 대해 이전보다 더 잘 알고 있습니다. 이는 우리가 항상 어디로 가야하는지, 계획이 무엇인지, 무엇을 해야하거나 느껴야하는지 항상 알아야 한다는 생각을 강화시킵니다. 관계에서의 완벽주의는 매우 파괴적일 수 있습니다. 어떤 일을 다르게 해보고 싶다고 생각한다고 해도, 실수는 거의 항상 더 깊은 연결을 위한 기회입니다.
  5. 마지막으로, 영감을 찾으세요. 위대한 시를 읽어보세요. 푸치니, 모차르트, 테일러 스위프트의 음악을 들어보세요. 박물관에 방문하세요. 조니 미첼의 앨범 Blue를 전체적으로 끄고 들어보세요. 허프만은 “일부 사람들에게는 하이킹이나 레시피 같은 창조적이고 자신의 삶과 관련이 없는 것으로부터 영감을 받을 수 있다”고 말합니다. 자신을 흥분시키게 놔두세요. 종종 영감을 느끼는 것이 안심을 줄 수 있습니다. 또한 예술은 우리가 자신보다 더 큰 무언가의 일부라는 것을 상기시켜줍니다.

거의 모든 기술적인 발전은 약속과 위험을 모두 내포하고 있습니다. 모바일 인터넷은 정보에 쉽게 접근할 수 있도록 만들어 주었지만, 우리를 핸드폰에 지나치게 의존하게 만들어 주고 정보를 기억하는 것에는 덜 관심을 가지게 만들었습니다. 대규모 산업화는 상품과 서비스를 더 저렴하게 만들어 주었지만, 기후 변화를 가속화시키기도 했습니다. AI가 우리의 미래에서 상당한 특징을 갖게 될 것은 의심의 여지가 없습니다. 그 질문은 어떻게 하면 좋은 면을 살릴 수 있을까요? 인간의 연결이라는 사회의 가장 기본적인 요소를 잃지 않으면서 AI의 힘을 어떻게 활용할 수 있을까요?