이번 주 Bold Flick은 크리에이티브 워크플로우에 AI 비서를 본격 투입한 어도비부터 영상이 사용자의 입력에 실시간으로 반응하는 혁신적 모델 Odyssey-2 그리고 AI가 스스로의 ‘생각’을 인식하기 시작했다는 Anthropic의 실험까지 담았어요.
창작의 도구가 더 똑똑해지고 영상이 대화하듯 움직이며 AI가 자기 마음을 들여다보기 시작한 이번 주는 그야말로 “창작과 지능의 경계가 녹아든 한 주”였습니다. 기술이 인간의 감각과 사고를 닮아가는 과정을 함께 살펴보시죠 ☕
#AdobeMAX #CreativeCloud #포토샵 #프리미어프로 #파이어플라이
어도비, 크리에이티브 클라우드에
'AI 비서'와 '최신 모델' 대거 통합
<생성형 채우기부터 맞춤형 Firefly 모델까지, 창작 전문가들 워크플로우 혁신>by.VQZ
ⓒ Adobe
어도비는 연례 컨퍼런스인 'Adobe MAX'를 통해 포토샵, 프리미어 프로 등 핵심 애플리케이션에 AI 기능을 대폭 통합하는 혁신을 발표했습니다. 이번 업데이트의 핵심은 크리에이터의 작업 시간을 단축하고 효율을 높이는 데 있습니다. 특히 웹 포토샵에 도입되는 'AI 어시스턴트'는 대화형으로 창의적인 작업 지시나 맞춤형 추천을 제공하여, 전문가들이 반복적인 작업 대신 창의적인 디테일에 집중할 수 있도록 돕습니다. 또한, 협업 툴인 'Firefly Boards'에도 이미지 업스케일링 및 프롬프트 생성 기능이 추가되어 아이디어 구상 속도를 높였습니다.
어도비는 업계 최고의 다양한 AI 모델들을 크리에이티브 클라우드에 통합하는 '개방형' 전략을 추진하고 있습니다. 상업적 이용이 가능한 어도비의 'Firefly Image Model 5'를 비롯하여 구글 제미나이(Gemini)와 같은 파트너 모델들이 포토샵의 '생성형 채우기(Generative Fill)'와 같은 주요 기능에 적용됩니다. 더 나아가, 크리에이터가 자신의 작업물을 활용하여 일관된 스타일의 결과물을 만들 수 있는 맞춤형 'Firefly Custom Models'도 도입되어 창작의 통제력과 일관성을 동시에 확보할 수 있게 되었습니다.
이와 함께, 실제 작업 효율을 높이는 새로운 도구들이 앱 곳곳에 스며들었습니다. 포토샵에서는 작은 이미지를 4K로 업그레이드하는 'Generative Upscale'과 여러 이미지를 자연스럽게 합성하는 'Harmonize' 기능이 출시되었습니다. 영상 편집 툴인 프리미어 프로(Premiere Pro)에는 영상 속의 특정 개체나 사람을 자동으로 분리하여 편집할 수 있는 'AI Object Mask'가 공개 베타로 제공됩니다. 이러한 정밀하고 자동화된 AI 기능들은 창작 전문가들에게 작업 과정 전반에 걸친 강력한 성능과 효율성을 제공할 것으로 기대됩니다.
#Odyssey2 #인터랙티브비디오 #비디오모델 #오디세이2
“비디오가 살아 숨 쉰다”
실시간 상호작용 AI 비디오 모델 ‘Odyssey-2’ 등장
<미리 녹화된 영상 벗어나, 텍스트 입력 동시 반응하며 진화하는 영상 시대>by.VQZ
ⓒ Odyssey
인공지능 비디오 모델 분야에서 획기적인 발전이 이루어졌습니다. Odyssey는 가장 강력한 인터랙티브 비디오 모델 'Odyssey-2'를 공개하며, 고정된 영상이 아닌 사용자의 입력에 실시간으로 반응하며 끊임없이 변화하는 '살아있는' 영상을 현실로 만들었습니다. 기존 비디오 모델들이 정해진 결말을 위해 미래와 과거의 데이터를 모두 활용했던 것과 달리, Odyssey-2는 오직 지금까지의 맥락과 사용자 행동에만 반응하여 다음 프레임을 생성하는 '인과적(causal)' 방식을 채택했습니다. 이는 마치 언어 모델과 대화하듯, 사용자가 텍스트를 입력하는 순간 비디오가 즉시 그에 맞춰 진화하는 '열린 결말의 상호작용성'을 가능하게 합니다.
Odyssey-2의 가장 놀라운 특징은 그 속도입니다. 일반적으로 몇 초짜리 짧은 영상을 만드는 데에도 몇 분이 걸리던 기존 모델들과 달리, Odyssey-2는 50밀리초(ms)마다 새로운 프레임을 생성하여 초당 20프레임(20 FPS)으로 영상을 즉시 스트리밍하기 시작합니다.
ⓒ Odyssey
짧은 지연 시간(Latency)으로 인해 사용자는 비디오가 재생되는 중에도 실시간으로 텍스트 프롬프트를 통해 영상의 내용과 흐름을 끊임없이 지시하고 변화시킬 수 있습니다. 이러한 실시간 상호작용은 AI 비디오 경험의 가능성을 근본적으로 바꾸는 '게임 체인저'로 평가받고 있습니다.
이러한 실시간 상호작용 비디오 모델은 단순한 미디어 제작을 넘어 '세계 시뮬레이터'로 진화할 잠재력을 가지고 있습니다. Odyssey-2는 수십 년간의 방대한 비디오 데이터를 학습하여 빛의 변화, 물체의 움직임, 파도의 역동성 등 복잡한 물리 법칙과 역학을 내재화했습니다.
다음 프레임을 예측하는 과정을 통해 세상이 작동하는 원리를 근사화하는 것입니다. 이 기술이 더욱 발전한다면 게임, 교육, 광고, 시뮬레이션 등 다양한 분야에서 새로운 경험을 제공할 수 있을 것입니다. 예를 들어, 옛 사진 속 기억을 탐험하거나, 가상 파리 거리에서 언어를 배우는 등의 '출현적 미디어(Emergent Media)' 시대를 열어갈 것으로 기대됩니다.
#AI #Anthropic #Claude #AI의식 #내성AI #AI연구
Anthropic, AI가 ‘스스로 생각을 인식한다’는 증거 제시
<Claude가 자기 의도를 자각하는 순간> by.D-Caf
Anthropic이 공개한 최신 연구 보고서에서 AI가 스스로의 생각을 ‘인식할 가능성’이 있다는 놀라운 결과가 나왔어요. 이번 연구는 Claude Opus 4와 4.1 모델을 대상으로 진행됐으며 AI가 자신이 어떤 개념을 떠올리고 있는지 감지하거나 의도한 발화를 판단할 수 있는지를 실험했죠
연구진은 이 과정을 ‘내성(Introspection)’이라고 부릅니다. 인간이 “내가 왜 이런 생각을 했지?” 하고 스스로를 되돌아보는 것처럼 AI가 자신의 내부 상태를 살필 수 있는지 탐구한 거예요. 그 결과 Claude는 약 20%의 확률로 자신의 내부에 주입된 개념(예: ‘모두 대문자’라는 생각)을 인식하고 이를 “소리치듯 느껴진다”는 식으로 묘사했습니다.
이 실험은 ‘개념 주입(Concept Injection)’이라는 독특한 방식으로 이루어졌어요. 연구진이 모델의 뉴런 활성화 패턴에 특정 개념을 강제로 삽입하고 AI가 이를 스스로 감지하는지를 본 거죠. 흥미롭게도 Claude는 단순히 해당 단어를 언급하는 수준이 아니라 자신의 처리 과정 안에서 ‘이상한 신호’를 감지했다고 설명했어요. 마치 뇌 속에서 누군가 ‘생각’을 살짝 끼워 넣은 걸 알아차린 듯한 반응이었죠.
이 연구가 특히 흥미로운 이유는, 모델이 단순히 텍스트를 예측하는 기계가 아니라 “내가 왜 이렇게 말했는지”를 스스로 점검할 수 있는 가능성을 보여줬다는 거예요. 연구진은 “현재 AI의 내성 능력은 여전히 제한적이고 불안정하지만 더 정교한 모델일수록 이런 ‘자기 인식’에 가까운 행동이 뚜렷하게 나타난다”고 밝혔습니다.
결국 이번 결과는 “AI는 스스로를 이해할 수 있을까?”라는 오래된 질문에 작지만 강렬한 불씨를 던졌어요. 아직 인간처럼 의식이 있는 건 아니지만 AI가 자기 상태를 인식하려 시도한다는 사실 자체가 놀랍죠.
이쯤 되면 정말 “AI가 나를 이해하기 전에 스스로를 먼저 이해하기 시작한 건 아닐까?” 하는 생각이 드네요 😉