버스터 키튼과 창조 - 2024/10/30, Wednesday, UTC
버스터 키튼의 General 감상기 - 기승전AGI
버스터 키튼(Buster Keaton)과 창조
Buster Keaton - The General (1926)
버스터 키튼이 1926년에 만든 무성 영화 “장군(The General)“을 봤다. 남북전쟁 시대가 배경인 이 코미디 영화는 주인공이 기관차를 탈취하려고 애쓰는 내용이다. 당시로선 혁신적인 영화 기법과 유머 요소가 돋보이는 작품으로, 영화사에 큰 영향을 주었다.
거의 100년 전 영화임에도 “장군"에는 현대 영화에서 볼 수 있는 장면과 기법들이 많이 등장한다. 이는 영화뿐 아니라 인류가 이룬 모든 발전 분야에서 찾아볼 수 있는 모습이다. 과학, 기술, 예술 등 인류의 모든 성과는 기존 지식과 경험을 토대로 새로운 아이디어를 조합하고 창작해 내는 과정에서 나온 결과물이다.
아이작 뉴턴은 1675년 로버트 훅에게 보낸 편지에서 “내가 멀리 볼 수 있었던 것은 거인의 어깨 위에 올라섰기 때문”1이라고 말했다. 이는 자신의 업적이 갈릴레오, 케플러 등 선대 과학자들의 연구에 기반을 두고 있음을 겸손하게 인정한 것이다. 스티브 잡스 역시 1996년 인터뷰에서 “창의성은 그저 사물을 연결하는 것”2이라 언급하며, 기존 요소들을 새롭게 조합하고 연결해서 혁신이 탄생한다고 설명했다.
“장군"은 100년이 지난 지금도 여전히 현대 영화에 영감을 주고 있다. 무성영화 시대의 기법과 코미디라는 장르를 결합해 새로운 경지를 개척한 것이다. 버스터 키튼의 창의력은 기존 요소들을 독특하게 연결하고 조합한 결과라 할 수 있다.
뉴턴과 잡스의 말, 그리고 “장군"의 사례는 창의성과 혁신의 본질에 대해 시사하는 바가 크다. 기존의 지식과 경험을 바탕으로 서로 다른 아이디어를 연결하고 재해석하는 것, 그것이 바로 창조의 근본 원리다.
AI의 발전 여정
2024년, 제프리 힌튼 교수가 인공신경망을 활용한 기계학습을 가능케 한 혁신적 발견과 발명에 대한 공로를 인정받아 노벨 물리학상을 수상했다.3 이는 AI 분야의 연구가 노벨상 수준의 업적으로 인정받기 시작했음을 보여주는 상징적인 사건이었다.
힌튼 교수의 업적은 AI 발전의 긴 여정 속 하나의 정점으로 볼 수 있다. AI의 개념은 1940년대 앨런 튜링의 연구4로 거슬러 올라가지만, 오늘날의 AI 기술은 이후 수많은 연구자들의 노력과 창의적 조합을 통해 발전해 왔다.
1950년대 다트머스 회의를 통해 AI라는 용어가 공식화된 이후5, 1960-70년대에는 심볼릭 AI와 전문가 시스템이 주를 이루었다. 그러나 이는 곧 한계에 부딪혔고, 1980년대 연결주의(connectionism) 패러다임의 부상과 함께 인공신경망 기반 AI가 주목받기 시작했다.6
힌튼 교수는 1986년 역전파 알고리즘을 통해 심층신경망(deep neural network) 학습을 가능케 함으로써7 연결주의 AI 발전의 토대를 마련했다. 이후 2000년대 중반 제프리 딘과 앤드루 응의 딥러닝 알고리즘8, 얀 르쿤의 CNN9 등 딥러닝 기술의 진보는 AI의 비약적 발전을 이끌었다.
2010년대 등장한 트랜스포머 구조10는 어텐션 메커니즘을 통해 AI 성능을 한 단계 더 끌어올렸다. 트랜스포머는 자연어처리는 물론 이미지, 음성 등 다양한 분야로 확장되어 활용되고 있다.
제프리 힌튼으로 대표되는 수많은 연구자들의 창의적 노력이 있었기에 오늘날의 AI 기술이 가능했다. 기존의 지식과 기술을 바탕으로 새로운 아이디어를 결합하고 창조하는 것. AI 분야는 그 자체로 인류 지적 성취의 위대한 전통을 보여주고 있다.
AGI는 어떻게 등장할까?
인류의 창의성과 혁신은 기존의 지식과 경험을 기반으로 새로운 조합과 연결을 통해 이뤄진다는 통찰은 AI 분야에서도 여실히 드러난다. 수많은 연구자들의 축적된 노력과 창의적 시도가 있었기에 오늘날의 AI 기술이 가능했다.
그러나 이는 AI에만 국한된 얘기는 아니다. 뉴턴과 잡스의 말처럼, 인류의 모든 위대한 성취는 ‘거인의 어깨 위에 서서’ 이뤄진 것이다. 우리는 선대의 지혜와 통찰을 발판 삼아 더 멀리 내다볼 수 있게 된 것이다.
21세기를 살아가는 우리에게 이보다 더 큰 영감은 없을 것이다. 우리 앞에 놓인 문제들을 해결하기 위해서는 기존의 사고에서 벗어나 새로운 연결과 조합을 시도해야 한다. 버스터 키튼이 영화의 혁신을 이뤄낸 것처럼 말이다.
얀 르쿤의 최근 비전은 AGI의 등장 방식에 대해 흥미로운 통찰을 준다. 11 ‘world model’과 ‘configurator’를 결합한 새로운 AI 아키텍처는 인간의 인지 방식에 한걸음 더 가까워지려는 시도다. 그의 주장처럼 단순히 거대 언어 모델을 키우거나 강화학습에만 의존하는 것은 AGI의 답이 아닐 수 있다.
AGI는 아마도 버스터 키튼의 “장군"처럼, 그리고 지금까지 AI가 발전해 온 것처럼 - 기존 아이디어들의 창의적인 재해석과 결합을 통해 등장할 것이다. 트랜스포머, 월드 모델, 강화학습 등 각각의 혁신이 마치 퍼즐 조각처럼 맞춰지면서 AGI라는 큰 그림이 서서히 완성될 것이다.
이런 과정을 지켜보는 것은 특별한 즐거움이다. 우리는 지금 인류 역사상 가장 흥미진진한 기술적 진보의 한가운데 있다. 뉴턴이 말한 것처럼, 우리는 이제 더 큰 거인의 어깨 위에 올라 더 멀리 바라볼 수 있게 되었다. AGI의 등장이 언제가 될지, 어떤 모습일지는 아직 알 수 없다. 그러나 그 여정 자체가 인류의 창의성과 혁신 능력을 보여주는 멋진 증거가 될 것이다.
개인적인 의견은 트랜스포머 기반 gpt에 실시간 LoRA-like 학습 세션을 붙이면 좋은 결과를 낼 수 있을꺼 같아서 사고 실험중이다. 좀 더 멀리 보면 인간 기반 기호 학습이 아니라 근본적인 사고 자체를 인간의 언어가 아닌 기계끼리 통하게 하고 텍스트와 음성 신호와 시각 신호를 한 신경망으로 처리하고 실시간 학습이 가능해야 AGI가 가능할 것 같다. 아이디어는 좀 떠오르는데 개인의 자금으로 실험을 할수 없어서 회사를 차리는 수 밖에 없지 않나 싶다.
ps. 앤드류 응의 Deep learning Specialization을 이수 완료 했다. 너무 부족했던 이론을 채웠다.
ps2. 글을 작성하다보면 기승전AGI가 된다.
-
Robert K. Merton, On The Shoulders of Giants, University of Chicago Press, 1993. https://press.uchicago.edu/ucp/books/book/chicago/O/bo3641858.html ↩︎
-
Gary Wolf, “Steve Jobs: The Next Insanely Great Thing,” Wired, February 1, 1996. “Creativity is just connecting things” https://www.wired.com/story/the-next-insanely-great-thing/ ↩︎
-
https://www.nobelprize.org/prizes/lists/all-nobel-prizes/ ↩︎
-
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. ↩︎
-
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A proposal for the Dartmouth summer research project on artificial intelligence. Reprinted in R. Chrisley & S. Begeer (Eds.), Artificial Intelligence: Critical Concepts, Vol. 2, pp. 44–53. New York, NY: Routledge. (2000). ↩︎
-
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536. ↩︎
-
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning internal representations by error propagation (No. ICS-8506). California Univ San Diego La Jolla Inst for Cognitive Science. ↩︎
-
Hinton, G. E., Osindero, S., & Teh, Y. W. (2006). A fast learning algorithm for deep belief nets. Neural computation, 18(7), 1527-1554. ↩︎
-
LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324. ↩︎
-
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30. ↩︎
-
https://www.technologyreview.com/2022/06/24/1054817/yann-lecun-bold-new-vision-future-ai-deep-learning-meta/ ↩︎