솔직히 말씀드리면, 저는 프랑켄슈타인이라는 이름을 수십 년 동안 완전히 잘못 알고 있었습니다. 영화에서 봤던 초록빛 얼굴, 목에 박힌 나사, 어그적거리며 걷는 거대한 괴물. 그게 '프랑켄슈타인'이라고 아무 의심 없이 믿어 왔습니다. 그런데 메리 셸리의 원작 소설을 들여다보니, 프랑켄슈타인은 그 괴물의 이름이 아니라 괴물을 만든 창조자의 이름이었습니다. 이 단순한 사실 하나가 책 전체의 무게를 완전히 바꿔 놓았습니다.

피조물의 소외, 누가 진짜 괴물인가
피조물은 처음부터 악하지 않았습니다. 이 질문을 먼저 던지고 싶습니다. 과연 우리는 '괴물'을 제대로 정의하고 있었을까요?
빅토르 프랑켄슈타인이 창조한 피조물은 드 라세 가족의 오두막 창고에 숨어 지내며 그들을 몰래 도왔습니다. 나무 틈으로 가족의 일상을 지켜보던 피조물은 그들의 빈곤을 안타깝게 여겨 밤마다 땔감을 가져다 놓았습니다. 그것만이 아니었습니다. 밀턴의 실낙원과 괴테의 젊은 베르테르의 슬픔을 읽으며 감정과 언어를 익혔고, 인간의 감수성과 도덕 감각을 스스로 쌓아 나갔습니다.
여기서 실낙원이란 17세기 영국 시인 존 밀턴이 쓴 서사시로, 신으로부터 추방당한 사탄과 에덴동산에서 쫓겨난 인간의 이야기를 담고 있습니다. 피조물이 이 작품을 읽으며 자신의 처지를 겹쳐 봤다는 점이 저는 이상하게 오래 마음에 걸렸습니다. 창조자에게 버림받고, 세상 어디서도 자신의 자리를 찾지 못한 존재의 심정이 그 텍스트 안에 그대로 녹아 있었을 테니까요.
그렇게 내면을 다듬은 피조물이 마지막 희망을 걸고 드 라세 가족 앞에 나타났을 때, 그들의 반응은 공포와 폭력이었습니다. 아가타는 기절했고, 펠릭스는 지팡이로 피조물을 내리쳤습니다. 제가 이 장면을 읽으며 느낀 감정은 단순한 연민이 아니었습니다. 솔직히, 불편함이었습니다. 피조물의 행동이 아니라, 사람들의 반응이 더 잔인하게 느껴졌기 때문입니다.
사회심리학에서는 이런 반응을 '외집단 혐오(outgroup hostility)'로 설명합니다. 외집단 혐오란 자신이 속한 집단과 다른 외형이나 특성을 가진 존재에게 자동적으로 부정적 감정과 배제 반응을 보이는 심리적 기제를 말합니다. 피조물이 아무리 선한 마음을 가지고 있어도, 외형이 다르다는 이유 하나만으로 사회는 그를 계속 밀어냈습니다. 이 메커니즘은 2세기가 지난 지금도 달라지지 않았습니다.
피조물의 소외가 결국 분노와 파괴로 이어진 경로를 정리하면 다음과 같습니다.
- 창조자에게 버림받으며 최초의 거절 경험
- 길거리 사람들 모두에게 공포와 혐오의 반응을 받음
- 드 라세 가족에게서도 거절당하며 마지막 희망이 꺾임
- 동반자 피조물(여자 피조물) 요청마저 창조자에게 거부당함
- 축적된 좌절이 분노와 복수로 전환됨
이 흐름을 보면, 피조물의 폭력은 갑자기 솟아난 것이 아닙니다. 인간 사회가 반복적으로 퇴짜를 놓는 과정에서 만들어진 결과였습니다. 그렇다면 누가 진짜 괴물인지, 독자 스스로 판단할 수 있을 것입니다.
창조 책임과 AI 윤리, 프랑켄슈타인의 경고는 유효한가
빅토르 프랑켄슈타인은 생명을 창조하는 것에 집착했지만, 창조 이후에 무슨 일이 벌어질지는 거의 생각하지 않았습니다. 그는 피조물이 눈을 뜨는 순간, 공포에 사로잡혀 그냥 도망쳐 버렸습니다. 만든 것까지는 천재였지만, 만들고 난 뒤의 책임은 철저히 회피했습니다.
저는 이 장면을 읽으면서, 현재 AI 산업 전반의 모습이 겹쳐 보였습니다. 솔직히 이건 예상 밖의 연결이었습니다. 대형 언어 모델(LLM, Large Language Model)이 잇달아 공개될 때마다 쏟아지는 것은 성능 지표와 벤치마크 결과였고, "이 기술이 낳을 사회적 부작용을 누가 책임지는가"라는 질문은 항상 뒤로 밀려났습니다. 여기서 LLM이란 방대한 텍스트 데이터를 학습하여 인간처럼 언어를 생성하고 이해하는 인공지능 모델을 말합니다.
기술 윤리(tech ethics) 분야에서는 이 문제를 오래전부터 다뤄왔습니다. 기술 윤리란 기술이 개발되고 사회에 도입될 때 발생하는 피해와 혜택을 누가 어떻게 다룰 것인지를 설계하는 원칙 체계를 뜻합니다. 단순히 "나쁜 기술을 만들지 말자"는 선언이 아니라, 이미 만들어진 기술이 누군가를 배제하거나 차별할 때 이를 복구할 구조를 사전에 설계하는 일까지 포함합니다.
OECD는 2019년 AI 원칙을 채택하며, AI 개발자와 기업이 AI가 사회에 미치는 영향에 대해 사후 책임(accountability)을 져야 한다고 명시했습니다(출처: OECD AI Policy Observatory). 또한 유럽연합(EU)은 2024년 AI법(EU AI Act)을 통과시키며 고위험 AI 시스템에 대한 투명성과 사전 위험 평가를 의무화했습니다(출처: 유럽의회 EU AI Act). 이런 흐름은 결국 프랑켄슈타인이 하지 못한 것, 즉 창조 이후의 책임을 제도로 강제하려는 시도입니다.
제 경험상, 기술 책임에 대한 논의는 언제나 기술이 충분히 확산된 뒤에야 본격화됩니다. 알고리즘 편향(algorithmic bias), 즉 AI 모델이 학습 데이터에 내재된 편견을 그대로 재생산하여 특정 집단을 차별하는 현상이 언론에 등장하는 것도, 이미 수백만 명에게 그 모델이 적용된 이후입니다. 피해가 쌓이고 나서야 윤리 위원회가 구성되고, 규제가 논의됩니다. 프랑켄슈타인의 실수와 얼마나 닮아 있는지 생각해 보셨습니까?
제가 이 책을 통해 가장 선명하게 정리된 생각은 이것입니다. 기술의 위험은 기술 자체에서 오는 것이 아니라, 그 기술이 낳는 배제와 낙인, 그리고 어느 누구도 책임지지 않는 구조에서 자라난다는 것. 피조물이 처음부터 파괴적이지 않았듯, 기술도 처음부터 나쁜 것이 아닙니다. 무책임한 창조자가 괴물을 만들어 냅니다.
메리 셸리가 1818년에 쓴 이 소설이 지금도 읽혀야 하는 이유는, 이 이야기가 단순한 공포물이 아니기 때문입니다. 창조자의 책임, 소외된 존재의 분노, 외형으로 판단하는 사회의 습관. 이 세 가지 질문은 지금 이 순간 우리가 살아가는 세계에서 여전히 답이 나오지 않은 채 남아 있습니다. 책 자체는 두껍지 않습니다. 한 번쯤 직접 읽어보시면, "프랑켄슈타인은 괴물의 이름"이라고 믿었던 시간이 얼마나 많은 것을 놓치게 했는지 느끼실 수 있을 것입니다.