본문 바로가기
카테고리 없음

AGI가 아직 ‘안 된’ 이유 5가지: 기억, 계획, 상식, 현실 행동, 책임

by mycalmarchive 2026. 1. 23.

오늘은 <AGI가 아직 ‘안 된’ 이유 5가지: 기억, 계획, 상식, 현실 행동, 책임>을 주제로, “왜 요즘 AI가 똑똑해 보여도 아직 AGI라고 말하기 어려운지”를 이해할 수 있게 쉽게 정리해볼게요. AGI는 한마디로 “새로운 문제도 스스로 배우고, 여러 일을 끝까지 해내는 AI”에 가까운 개념이에요. 그런데 지금의 AI는 말과 결과물이 놀라울 만큼 좋아졌는데도, 어떤 순간에는 갑자기 허술해 보일 때가 있습니다. 그 이유는 단순히 성능이 부족해서가 아니라, 지능에 꼭 필요한 ‘다섯 가지 능력’이 아직 완성형이 아니기 때문이에요.

1) 기억과 계획이 아직 사람 같지 않다: “잊어버리거나, 길을 잘못 잡는다”

(1) 기억: “대화를 했는데 다음에 모르는 척”이 생긴다

사람은 보통 중요한 정보를 오래 기억해요. 친구 생일, 시험 날짜, 내가 싫어하는 음식 같은 것들이죠. 그런데 AI는 대화 중에는 잘 따라오다가도, 시간이 지나거나 문맥이 바뀌면 그 정보를 안정적으로 유지하지 못하는 경우가 있어요.

예를 들어 이런 상황을 생각해볼게요.

  • “나는 견과류 알레르기가 있어”라고 말해둠
  • 그런데 다음 대화에서 간식 추천을 하면서 견과류를 넣어버림

사람이라면 “아, 그건 안 되지”라고 바로 떠올리기 쉬운데, AI는 이걸 항상 같은 품질로 지키기가 어렵습니다.
AGI가 되려면 단순히 기억을 “저장”하는 것만이 아니라, 상황에 맞게 다시 꺼내 쓰는 기억이 필요해요.

 

(2) 계획: “그럴듯한 로드맵”과 “끝까지 완주”는 다르다

요즘 AI는 계획을 정말 잘 짜요. “3단계로 정리해줘” 하면 멋진 단계가 나오죠. 문제는 계획이 현실에서 움직이려면 다음이 필요하다는 거예요.

  • 지금 내가 가진 정보가 충분한지 확인
  • 막히면 우회로 찾기
  • 시간이 부족하면 우선순위 조정
  • 결과를 보고 다시 수정

사람은 계획이 틀리면 바로 고쳐요. 반면 AI는 “계획을 말하는 것”은 잘해도, 실제로 하다 막혔을 때 계획을 재설계하는 힘이 사람만큼 자연스럽지 않을 수 있습니다. 그래서 “완료형”으로 맡기면 중간에서 삐끗하는 장면이 나옵니다.

한 줄로 정리하면 이거예요.
계획을 예쁘게 그리는 능력과 현실에서 끝까지 밀고 가는 능력은 다릅니다.

 

2) 상식과 현실 행동이 벽이다: “말은 맞는데, 현실에서는 위험하다”

(3) 상식: 규칙이 ‘글로’가 아니라 ‘삶으로’ 굳어져야 한다

상식은 어려운 공식이 아니에요. 그냥 이런 것들이죠.

  • 뜨거운 건 손으로 오래 잡으면 아프다
  • 비가 오면 길이 미끄럽다
  • 약속 장소는 시간을 맞춰야 한다
  • 어떤 말은 사람을 상처 입힐 수 있다

문제는 상식이 “문장 하나”로 끝나지 않는다는 점이에요. 현실에서는 변수가 많아서, 같은 규칙도 상황마다 다르게 적용해야 합니다.

예를 들어 “문을 열고 나가라”는 말은 쉬운데,
문이 잠겨 있으면? 비상구면? 문 밖이 공사 중이면?
상식은 이런 질문들을 자동으로 떠올리게 해요.

AI는 상식처럼 보이는 지식은 많이 가지고 있어도, 그걸 상황에 맞게 자연스럽게 연결하는 데서 흔들릴 수 있습니다. 그래서 “말은 맞는데, 어딘가 이상한 답”이 가끔 나옵니다.

 

(4) 현실 행동: 디지털과 현실은 다르다

AI가 글을 쓰고 요약하는 건 “화면 안에서” 움직이는 일이에요. 그런데 AGI는 더 나아가서, 현실의 목표를 행동으로 이어야 한다는 상상을 포함합니다. 여기서 난이도가 확 올라갑니다.

현실 행동이 어려운 이유는 간단해요.

  • 물리 세계는 예외가 너무 많다
  • 실수하면 피해가 생긴다
  • 한 번 한 행동은 되돌리기 힘들다

예를 들어 “예약을 해줘”를 맡겼다고 해볼게요.
일정이 겹치면? 카드 결제가 실패하면? 취소 수수료가 있으면? 주소가 틀리면?
이런 변수는 매번 다르게 튀어나옵니다. 사람은 “아, 이건 멈추자”라고 감으로 브레이크를 밟지만, AI에게는 그 브레이크 기준을 정확히 심어야 합니다.

그래서 요즘 많이 말하는 “브라우저 에이전트”나 “자동 실행 AI”가 대단해 보이면서도, 동시에 조심해야 한다는 말이 나오는 거예요. 행동은 결과가 남기 때문입니다.

 

3) 책임이 마지막 관문이다: “정답”이 아니라 “책임 있는 결정”이 필요하다

(5) 책임: 누가 책임지냐가 비어 있다

AGI 논쟁에서 가장 큰 부분은 사실 기술이 아니라 책임 구조예요. 사람은 실수하면 책임을 져요. 그래서 중요한 일을 할 때는 이런 장치가 있습니다.

  • 상사가 결재한다
  • 전문가가 검수한다
  • 위험하면 중단한다
  • 기록을 남긴다

그런데 AI가 어떤 행동을 해버렸을 때, 책임을 누구에게 어떻게 묻는지 애매해질 수 있어요. 그래서 “AI가 판단하고 실행하는 시스템”은 기술적으로 가능해 보이더라도, 사회적으로 바로 받아들이기 어렵습니다.

 

예를 들어 이런 상황을 생각해보면 쉬워요.

 

  • AI가 잘못된 정보로 계약서를 만들었다
  • AI가 사람을 헷갈리게 하는 영상/음성을 만들었다
  • AI가 자동 결제로 돈을 써버렸다

이때 사람들은 묻습니다.
“누가 책임져?”
이 질문에 답을 못 하면, 아무리 똑똑해도 안전하게 널리 쓰기 어렵습니다.

 

“그럼 AGI는 영원히 불가능한 거야?” → 아니, 방향은 보인다

 

여기서 중요한 건, “아직 안 됐다”가 “아예 못 한다”는 뜻이 아니라는 점이에요. 요즘 AI 업계가 집중하는 것도 결국 이 다섯 가지를 보완하는 방향입니다.

  • 기억을 더 안정적으로 만들기
  • 계획-실행-검증-수정을 더 잘 돌리기
  • 상식과 맥락을 더 튼튼하게 하기
  • 실제 행동에 브레이크와 승인 지점을 넣기
  • 책임과 기록, 통제 장치 만들기

즉, AGI로 가는 길은 “말을 더 잘하게 만들기”보다, 실수 가능성을 줄이고, 위험한 순간에 멈추게 하고, 결과를 관리하는 시스템을 만드는 쪽에 더 가깝습니다.

 

정리하면, AGI가 아직 “안 된” 이유는 단 하나가 아니에요. 기억이 들쭉날쭉할 때가 있고, 계획이 실행까지 이어지며 흔들리고, 상식이 맥락에서 깨지고, 현실 행동은 변수가 폭발하고, 마지막으로 책임 구조가 아직 단단하지 않기 때문입니다. 그래서 지금의 AI는 정말 강력하지만, “아무 일이나 끝까지 맡길 수 있는 존재”라고 보기는 이릅니다.

 

그럼에도 이 다섯 가지가 조금씩 보완될수록, AI는 더 많은 일을 “안전하게” 맡을 수 있게 될 거예요. 중요한 건 공포나 과장이 아니라, 어디가 강하고 어디가 약한지를 알고 똑똑하게 쓰는 겁니다.