
인공지능 연구는 1950년대에 ‘새로운 실험적 학문’이라는 이름을 달고 시작되었다. 당시 MIT의 존 매카시와 마빈 민스키, 카네기멜론 대학교의 앨런 뉴웰과 허버트 사이먼 같은 연구자들이 그 흐름의 중심에 있었다. 이들은 모두 1956년에 열린 유명한 ‘다트머스 회의’에도 참여했는데, 이 회의는 인공지능 연구가 본격적으로 시작된 역사적인 순간으로 평가된다. 당시 연구자들은 언젠가 인간처럼 생각하고 문제를 해결하는 기계를 만들 수 있다고 기대했고, 이 아이디어 자체가 많은 사람들에게 큰 충격을 주었다.
초기 인공지능 연구는 방향에 따라 크게 두 가지 부류로 나뉘었다. 연구자들은 이 둘을 ‘깔끔이(Neats)’와 ‘지저분이(Scruffies)’라고 불렀다. 깔끔이는 논리적 규칙, 수학적 구조, 명확하게 정의된 기호(symbol)를 이용해 지능을 만들 수 있다고 믿은 사람들이다. 예를 들어, 전문가 시스템처럼 “조건 A라면 B를 하라”와 같은 규칙을 사람이 직접 입력해 주고, 그 규칙대로 컴퓨터가 문제를 해결하도록 만드는 방식이 이에 해당한다. 이 접근은 정돈되어 있고 예측 가능하다는 장점이 있지만, 현실 세계의 모든 문제를 이런 규칙만으로 다루기에는 한계가 분명했다.
반대로 지저분이, 또는 연결주의(connectionist)라고 불리는 연구자들은 인간의 뇌 구조처럼 기계가 스스로 배우고 진화해야 진정한 지능을 가질 수 있다고 보았다. 그래서 이들은 신경망(neural network)과 같이 컴퓨터가 스스로 패턴을 찾아내고 학습하도록 만드는 방식을 사용했다. 규칙을 일일이 만들지 않아도 된다는 장점이 있지만, 초창기 신경망은 성능과 안정성이 부족해 연구자들의 관심을 오래 끌지 못했다. 실제로 1960~70년대에는 scruffy 방식이 주목받지 못했고, 학계에서도 큰 기대를 하지 않았다.
하지만 1980년대에 들어서 상황이 달라졌다. 기존의 깔끔이 방식이 복잡한 문제를 처리하는 데 한계를 드러내기 시작했기 때문이다. 모든 상황을 규칙으로 정리하는 것은 현실적으로 불가능했고, 규칙이 조금만 어긋나도 시스템이 제대로 작동하지 않는 문제가 반복되었다. 그로 인해 신경망과 같은 scruffy 방식이 다시 주목받았고, 연구자들은 기계가 스스로 학습하는 방식의 가능성을 다시 탐구하기 시작했다.
1980년대에는 ‘역전파(Backpropagation)’라는 신경망 학습 방법이 소개되며 큰 관심을 끌었다. 역전 파는 신경망이 정답과 오답의 차이를 계산해 스스로 학습할 수 있도록 돕는 방법이다. 이 방식 때문에 신경망 연구가 다시 활기를 찾았지만, 여전히 한계는 존재했다. 특히 학습 데이터가 서로 독립적이고 특정한 형태를 갖추어야 제대로 학습된다는 조건 때문에 실제 문제에 그대로 적용하기는 쉽지 않았다. 학습 도중 지역 최적해(local minimum)에 갇혀 더 나은 해답을 찾지 못하는 문제도 계속 발생했다. 쉽게 말해, “산 전체에서 가장 낮은 지점”을 찾는 것이 목표인데, 중간에 있는 작은 골짜기를 가장 낮은 곳으로 잘못 판단하고 학습이 멈춰버리는 상황이 자주 발생한 것이다.
이러한 문제를 해결하기 위해 연구자들은 퍼지 논리(Fuzzy Logic), 신경퍼지(Neuro-fuzzy), 유전 알고리즘(Genetic Algorithm)과 같은 다양한 방법을 함께 사용하려고 시도했다. 퍼지 논리는 ‘정답이나 오답이 100%로 나뉘지 않는 애매한 경우’를 다루는 데 유용했고, 유전 알고리즘은 자연선택처럼 더 나은 해를 남기고 발전시키는 방식이었다. 이 방법들은 흥미로운 성과를 보였지만, 당시 기준으로는 여전히 실용화까지 이르기에는 부족한 점이 많았다.
1980년대 인공지능 연구가 큰 주목을 받은 이유 중 하나는 미국의 DARPA(국방 고등 연구 계획국)와 일본의 5세대 컴퓨터 프로젝트가 막대한 연구비를 지원했기 때문이다. DARPA는 군사적인 목적으로, 일본은 차세대 컴퓨터 기술을 선도하기 위해 인공지능 연구에 거대한 투자를 했다. 연구자들은 미래에 강력한 인공지능 시스템이 등장할 것이라고 기대했고, 여러 기업과 대학에서도 인공지능 연구 열풍이 이어졌다.
그러나 연구비가 아무리 많아도 즉각적인 성과는 나오지 않았다. 당시의 기술은 문제를 이해하고 스스로 판단할 수 있는 수준까지 도달하지 못했고, 복잡한 현실 문제를 해결하기에는 너무 미숙했다. 결국 투자에 비해 성과가 부족하다는 평가가 나왔고, 1980년대 후반부터 연구비 지원이 급격히 줄어들었다. 이 시기를 연구자들은 ‘인공지능의 겨울’이라고 불렀다. 이는 연구가 중단되거나 축소되는 암울한 시기를 의미한다.
1990년대에 접어들면서 연구자들은 인공지능의 방향을 다시 정리하기 시작했다. 이전처럼 인간과 비슷한 지능을 목표로 하는 막연한 연구 대신, 더 구체적이고 실용적인 분야에 집중했다. 그 결과 기계 학습, 로봇 공학, 컴퓨터 비전 등 세부 영역이 빠르게 성장하기 시작했다. 이 시기부터 인공지능은 작은 문제를 단계별로 해결하며 발전하는 방식으로 변화했고, 이러한 흐름은 이후 2000년대 이후의 AI 붐까지 자연스럽게 이어졌다.
결국 인공지능 연구는 성공과 실패를 반복하면서 더 현실적인 방향으로 진화해 왔다. 초기 인공지능이 꿈꾸던 ‘완전한 인간형 지능’은 아직 멀었지만, 연구자들은 작고 실용적인 기술들을 발전시키며 꾸준히 기반을 다져왔다. 고등학생이 이 역사를 이해한다면, 지금 우리가 사용하는 음성 인식, 얼굴 인식, 번역 기능 등이 얼마나 오랜 시행착오 끝에 만들어졌는지 더 잘 느낄 수 있을 것이다.
'인공지능 > AI 역사' 카테고리의 다른 글
| 1993년 이후 인공지능의 재도약: 성공, 변화, 그리고 지금의 AI까지 (0) | 2025.12.12 |
|---|---|
| 두 번째 AI 겨울: 왜 인공지능 연구가 한동안 멈춰섰을까? (1) | 2025.12.12 |
| AI 연구가 무너졌던 이유: 퍼셉트론 충격부터 철학 전쟁까지 (1) | 2025.12.12 |
| AI의 첫 번째 좌절기: 왜 1970년대는 "AI 암흑기"가 되었을까 (1) | 2025.12.12 |
| AI의 황금기, 그때 무슨 일이 있었을까? (0) | 2025.12.11 |