본문 바로가기
IT·테크

구글 I/O 2025 핵심정리: 제미나이 2.5부터 구글 빔까지 미래 기술 총망라

by 나이크 (injoys.com) 2025. 5. 22.
반응형


현실이 된 미래 기술의 무대, Google I/O 2025

인공지능 기술의 폭발적 혁신, 과연 우리의 일상을 어떻게 바꿀까요? 구글이 2025년 5월 개최한 연례 개발자 회의 Google I/O 2025에서는 이러한 질문에 대한 답을 엿볼 수 있었습니다. 올 I/O에서는 AI가 더 똑똑해지고, 우리 삶 곳곳에 스며드는 모습을 보여주는 다양한 신기술이 쏟아졌습니다. 특히 프로젝트 아스트라(Project Astra), 제미나이 2.5(Gemini 2.5), 에이전틱 AI(Agentic AI), AI 모드 검색, 이미지·영상·음악 생성 도구, 구글 빔(Google Beam) 등이 큰 주목을 받았는데요. 이번 포스트에서는 Google I/O 2025의 핵심 AI 발표 내용을 한눈에 정리하고, 각 기술의 특징과 실생활 활용 사례를 살펴보겠습니다. 새로운 AI 시대의 서막, 함께 만나보시죠! 🤖✨

 

제미나이 2.5: 차세대 AI 모델의 등장

구글이 자체 개발한 대규모 AI 언어 모델 제미나이(Gemini)2.5 버전으로 진화했습니다. 제미나이 2.5는 현존 최고 수준의 성능을 보이는 차세대 AI로, 방대한 데이터 학습과 최첨단 추론 알고리즘 덕분에 더욱 똑똑해졌습니다. 실제로 제미나이 2.5 프로 모델은 여러 벤치마크에서 1위를 차지하며 AI 모델 분야의 새로운 기준점을 세웠습니다. 또한 7세대 TPU 아이언우드(Ironwood)와 같은 강력한 인프라를 활용하여 이전 세대 대비 10배 이상의 처리 성능을 보여주며, 더 빠른 응답과 향상된 정확도를 제공합니다.

 

이런 성능 향상은 그저 숫자상의 진보에 그치지 않습니다. 이제 개발자와 사용자는 더욱 복잡한 문제 해결이나 창의적인 작업도 Gemini 2.5의 도움으로 수행할 수 있게 되었죠. 예를 들어, 수백 페이지에 이르는 문서를 요약하거나 복잡한 코드를 디버깅하는 등 이전 모델로는 부담스럽던 일들도 수월해졌습니다. 기업들은 버텍스 AI 플랫폼 등을 통해 Gemini 2.5를 활용해 혁신적인 앱과 서비스를 개발하고 있으며, 전 세계적으로 이미 4억 명 이상의 사용자가 Gemini 기반 앱을 사용하고 있을 정도로 그 영향력이 커지고 있습니다. 앞으로 제미나이 2.5는 구글의 다양한 제품 속에 녹아들어, 사용자들이 보다 똑똑한 AI의 혜택을 일상에서 누릴 수 있도록 해줄 것으로 기대됩니다. 여러분은 이렇게 발전한 AI를 일상에서 어떻게 활용해 보고 싶으신가요? 😉

 

AI 모드 검색: 인공지능이 바꾸는 새로운 검색 경험

구글 검색도 AI의 힘으로 새롭게 진화하고 있습니다. I/O 2025에서 공개된 AI 모드(AI Mode)는 검색창에 인공지능 모드 탭이 추가되어, 보다 복잡하고 심층적인 질문도 척척 해결해주는 차세대 검색 기능입니다. 기존에는 한 번에 하나의 질문에 대한 답을 찾았다면, AI 모드는 한 가지 질문을 여러 하위 질문으로 자동 분해(질의 팬아웃)하여 동시에 다양한 출처를 탐색합니다. 그 결과 사용자는 마치 전문 리서처가 대신 조사해 요약해주는 듯한 풍부한 답변을 얻을 수 있게 됩니다.

 

예를 들어 "이번 주말에 갈 수 있는 가장 저렴한 콘서트 티켓 찾아줘"라고 물어보면, AI 모드는 여러 티켓 판매 사이트의 정보를 실시간 크롤링하여 수백 개의 옵션을 가격, 좌석, 재고 상황까지 비교 분석해 최적의 티켓을 찾아줍니다. 또 스포츠 경기 결과나 주식 정보처럼 숫자 데이터가 많은 질문에는 맞춤형 차트인터랙티브 그래프를 생성해 보여주어 이해를 돕습니다. 쇼핑 영역에서도 혁신이 있는데요. 사용자가 자신의 전신 사진을 업로드하면, AI가 옷을 입혀본 가상 이미지로 “이 옷을 내가 입으면 어떻게 보일까?”를 미리 확인시켜 주는 가상 피팅 기능이 대표적입니다. 마음에 드는 상품은 원하는 가격대에 세일할 때 알림을 주거나, 아예 "대신 사줘 (Buy it for me)" 기능으로 검색 단계에서 바로 구매까지 진행할 수도 있다고 합니다.

 

현재 이 AI 모드 검색은 우선 미국 사용자들에게 공개되어 있으며, 곧 더 많은 국가로 확대될 예정입니다. 올여름에는 사용자의 Gmail, 사진 등의 정보를 바탕으로 개인화된 검색 결과를 제시하는 기능도 추가돼, 점점 사용자 맞춤형 검색으로 발전해 나갈 계획입니다. 한마디로 구글 검색이 이제 개인 AI 비서처럼 똑똑해지고 있는 셈입니다. 복잡한 검색은 AI에게 맡기고 우리는 더 중요한 일에 집중할 수 있게 될 날이 머지않았네요! 🔎 여러분이라면 AI 검색에게 어떤 것을 가장 물어보고 싶으신가요?

 

프로젝트 아스트라 & 제미나이 라이브: 카메라로 주변을 이해하는 AI 어시스턴트

구글은 작년 I/O 2024에서 프로젝트 아스트라(Project Astra)라는 흥미로운 실험을 선보인 바 있습니다. 프로젝트 아스트라는 범용 AI 어시스턴트의 미래상을 보여준 프로젝트로, AI에게 카메라 영상과 오디오를 실시간으로 입력하여 사용자의 주변 환경을 이해하고 도와주는 것이 핵심이었습니다. 쉽게 말해, AI의 “눈과 귀”를 열어준 셈이죠. 이번 I/O 2025에서는 이 기술이 한 단계 진화하여 제미나이 라이브(Gemini Live)라는 기능으로 우리 손안에 들어오게 되었습니다.

 

제미나이 라이브는 스마트폰의 카메라를 통해 사용자가 보고 있는 장면을 실시간으로 AI에게 전달하고, 거기에 대한 질문에 대화 형태로 답을 얻을 수 있는 기능입니다. 예를 들어, 사용자가 카메라로 옷차림을 비추며 “이 옷 차림에 뭐가 부족해 보이나요?”라고 묻거나, 집 안의 고장난 기기를 비추며 “이거 어떻게 고칠 수 있을까?”라고 질문하면, AI가 화면 속 상황을 파악하고 유용한 조언을 해줄 수 있습니다. 실제 사례로, 구글 데모에서는 면접 연습을 하는 사용자가 카메라 앞에서 모의 인터뷰를 보면 AI가 표정, 태도, 답변 내용을 분석해 면접 피드백을 주기도 했습니다. 또 마라톤을 준비하는 이용자가 자신의 달리기 자세를 촬영해 조언을 구하면, 운동 코치처럼 자세 교정과 훈련 팁을 제공하는 식으로도 활용될 수 있습니다.

 

이처럼 프로젝트 아스트라의 기술을 담은 제미나이 라이브는 현재 안드로이드 스마트폰에서 이미 서비스 중이며, I/O 발표와 함께 iOS용 제미나이 앱에도 순차적으로 도입되고 있습니다. 나아가 이 카메라+AI 기반 보조 기능은 구글 검색 등 다른 제품과도 결합될 예정이라니, 앞으로는 궁금한 것을 직접 보여주며 AI에게 묻는 일이 자연스러워질 전망입니다. 이제 AI 어시스턴트가 우리 주변 세상을 함께 보고 이해하며 더 똑똑한 도움을 줄 날이 성큼 다가왔네요! 여러분은 이런 카메라 기반 AI 비서를 어떻게 활용해보고 싶으신가요? 📱💡

반응형

 

에이전틱 AI: 사용자를 대신해 일하는 똑똑한 에이전트 모드

개인비서 같은 AI를 넘어, 이제는 대신 일을 처리해주는 한 단계 진화된 AI가 등장하고 있습니다. 구글은 이를 에이전틱 AI(Agentic AI) 혹은 에이전트 모드라고 부르는데요. 이 기술의 목표는 고급 AI 모델에 툴 사용 능력멀티태스킹 능력을 부여하여, 사용자가 원하는 작업을 자동으로 수행해주는 것입니다.

 

I/O 2025에서 소개된 에이전트 모드(Agent Mode)는 작년 공개된 연구 프로젝트 프로젝트 마리너(Project Mariner)의 성과를 담고 있습니다. 이 모드에서는 Gemini AI가 웹 브라우저를 비롯한 다양한 도구와 연계되어 마치 인간 비서처럼 여러 단계를 거쳐 업무를 처리합니다. 예를 들어, 사용자가 “내 예산에 맞는 방 3개짜리 아파트 찾아줘”라고 요청하면, 에이전트 모드의 AI는 부동산 웹사이트(Zillow 등)에 접속해 필터를 설정하고, 적합한 매물 목록을 정리해주며, 나아가 방문 예약 일정까지 잡아줄 수 있습니다. 또 다른 예로 “이번 주말 농구 경기 티켓 두 장을 저렴하게 구해줘”라고 하면, 여러 티켓 판매처를 검색하고 가격을 비교해 최적의 구매 링크를 제공하는 식입니다. 이러한 과정에서 AI는 여러 작업을 동시에 수행하고, 필요하면 사용자의 지시에 따라 새로운 검색이나 계산도 병행합니다. 한 번 작업 과정을 가르쳐 두면 비슷한 업무는 스스로 반복 수행하는 ‘가르치고 반복하기(Teach and Repeat)’ 학습도 가능해 점점 더 영리해집니다.

 

현재 에이전트 모드는 우선 제미나이 앱의 실험적 기능으로 곧 제공될 예정이며, 일부 파트너사를 통해 테스트가 진행되고 있습니다. 구글은 이 에이전트 생태계를 발전시키기 위해 Agent2Agent 프로토콜(에이전트들 간의 소통 규약)이나 MCP(모델 컨텍스트 프로토콜) 같은 기술 표준도 추진 중입니다. 결국 에이전틱 AI가 구현되면, 반복적이거나 복잡한 웹 작업들을 AI에게 맡기고 우리는 더 창의적이고 중요한 일에 집중할 수 있을 것으로 기대됩니다. 업무는 똑똑한 AI 에이전트에게, 사람은 사람만이 할 수 있는 일에—이런 미래가 성큼 다가오고 있네요.

 

이미지·영상·음악 생성 도구: 누구나 크리에이터가 되는 시대

창작의 영역에서도 구글의 AI 혁신은 눈부십니다. Google I/O 2025에서는 이미지, 동영상, 음악을 AI로 생성하는 새로운 도구들이 대거 공개되어 예술과 콘텐츠 제작의 판도를 바꿀 준비를 하고 있습니다. 생성형 AI를 통해 이제 일반 사람들도 상상력을 바로바로 눈과 귀로 구현해볼 수 있게 된 것인데요. 이번 행사에서 발표된 주요 AI 창작 도구들을 하나씩 살펴보겠습니다.

  • Imagen 4 (이마젠 4): 구글의 최신 이미지 생성 AI 모델로, 이전 버전 대비 텍스트 이해력과 디테일 표현력이 크게 향상되었습니다. 머리카락, 털, 옷감 질감처럼 기존엔 어려웠던 부분까지 사실적으로 그려내며, 이미지 내 텍스트 표현 능력도 개선되었습니다. 예를 들어 “해질녘 바닷가에 서 있는 고래 풍선” 같은 독특한 상상도 Imagen 4를 통해 고해상도 그림으로 얻을 수 있습니다. 현재 이마젠 4는 제미나이 앱을 비롯해 구글 클라우드의 버텍스 AI, 구글 워크스페이스의 슬라이드(Slides), 비즈(Vids), 문서(Docs) 등에서 사용할 수 있습니다.

  • Veo 3 (비오 3): 구글의 동영상 생성 AI 모델로, 이번에 원하는 소리까지 함께 생성하는 획기적인 업그레이드를 이뤘습니다. 영상에 배경 음악, 환경음, 심지어 대화까지 필요한 오디오를 AI가 알아서 입혀 더욱 현실감 있는 비디오를 만들어줍니다. 사용자는 몇 줄의 시나리오 텍스트나 이미지 시퀀스를 제공하는 것만으로, Veo 3가 알아서 멋진 단편 영상을 만들어주는 시대가 열렸습니다. 가령, “안개 낀 숲속을 걷는 소년”이라는 장면 묘사 텍스트를 넣으면, 소년의 발걸음 소리부터 새소리까지 담긴 짧은 영화 같은 영상을 생성해낼 수 있는 것이죠. (참고로 Veo 3와 Imagen 4 같은 최신 기능들은 현재 ‘AI Ultra’라는 구독 서비스 이용자에게 우선 제공되고 있습니다.)

  • Flow (플로우): 위의 이미지·영상 생성 모델들을 활용한 AI 영화 제작 앱입니다. Flow를 사용하면 전문 편집 기술이 없어도, 텍스트 프롬프트와 예시 이미지만으로 원하는 영상 클립을 만들고 편집할 수 있습니다. 짧은 클립을 자동으로 더 긴 장면으로 확장하거나, 여러 장면을 매끄럽게 이어붙이는 편집도 가능해 영상 크리에이터들에게 강력한 도구가 될 전망입니다. 예를 들어 머릿속 스토리보드 한 줄을 적으면 Flow가 장면을 영상으로 뚝딱 만들어주니, 유튜브 영상이나 광고 시안을 만들 때 혁신적인 워크플로우 개선이 기대됩니다.

  • Lyria 2 (리리아 2): 구글 딥마인드가 개발한 최신 음악 생성 AI 모델로, 작곡가나 프로듀서가 새로운 멜로디와 사운드를 실시간으로 탐색할 수 있게 해줍니다. 구글은 MusicLM에 이어 이 리리아 2 기반의 뮤직 AI 샌드박스를 공개하여 뮤지션들이 AI와 협업할 수 있는 길을 열었는데요. 사용자는 스타일이나 분위기를 텍스트로 지정하면 AI가 이에 맞는 음악 트랙을 생성해 줍니다. 흥미로운 점은 Lyria RealTime이라는 대화형 음악 생성 모델도 함께 선보였다는 것입니다. 이를 통해 사용자들은 연주하듯이 실시간으로 음악을 생성하고 제어하며 연주할 수 있고, DJ처럼 곡의 스타일을 즉석에서 바꿔가며 플레이할 수도 있습니다. 현재 리리아 2는 유튜브 쇼츠(Shorts) 크리에이터와 기업용 Vertex AI 사용자를 대상으로 우선 제공 중이며, 앞으로 API 및 AI 스튜디오를 통해 개발자와 일반 이용자도 접하게 될 전망입니다.

위와 같은 생성형 AI 도구들은 크리에이티브 작업의 문턱을 크게 낮춰줍니다. 이제 아이디어만 있다면 누구나 AI의 도움으로 멋진 그림, 영상, 음악을 만들어낼 수 있는 시대가 열린 것입니다. 앞으로 디자이너, 예술가들은 물론 일반 사용자들도 콘텐츠 창작에 AI를 적극 활용하게 될 텐데요. 여러분도 AI로 창작을 해볼 수 있다면 어떤 작품을 만들고 싶으신가요? 🎨🎬🎵

구글 빔: 3D 영상통화의 미래

몇 년 전부터 공개되어 온 구글의 야심찬 연구 프로젝트 스타라인(Project Starline)을 기억하시나요? 멀리 떨어진 사람과도 눈앞에 함께 있는 것처럼 대화할 수 있게 해주는 혁신적인 3D 화상통화 기술이었습니다. I/O 2025에서는 이 프로젝트가 마침내 구글 빔(Google Beam)이라는 이름의 AI 중심 영상 커뮤니케이션 플랫폼으로 공개되며 큰 화제를 모았습니다.

 

구글 빔은 2D 카메라 영상 스트림을 사실감 넘치는 3D 입체 영상으로 변환해주는 첨단 플랫폼입니다. 특별히 배열된 6대의 카메라와 AI 비디오 모델을 활용하여, 통화하는 두 사람의 모습을 라이트필드 디스플레이에 실시간 렌더링함으로써 입체감 있게 재현해줍니다. 대화 상대의 얼굴 표정이나 제스처가 마치 같은 공간에 있는 듯 생생하게 보이기 때문에, 기존 화상회의에서 느껴지던 거리감과 어색함을 크게 줄여줍니다. 구글은 이 장치를 통해 밀리미터 단위의 정밀 헤드 트래킹초당 60프레임의 실시간 처리를 구현하여, 사용자의 움직임에 따라 자연스럽게 3D 영상이 변화하고 몰입감 있는 대화 경험을 제공한다고 밝혔습니다.

 

실제로 시연 현장에서는 구글 빔을 통해 먼 거리에 있는 사람들이 마치 홀로그램처럼 함께 회의하고 협업하는 모습이 공개되어 박수갈채를 받았습니다. 이러한 기술은 원격 근무, 원격 의료, 원격 교육 등 여러 분야에서 게임 체인저가 될 잠재력을 지니고 있습니다. 예를 들어 해외에 있는 가족과도 마치 한 방에 모여있는 것처럼 소통할 수 있고, 멀리 떨어진 전문가에게 3D로 상황을 보여주며 조언을 구할 수도 있겠죠. 구글은 HP와 협력하여 올해 말에 첫 번째 구글 빔 장치를 일부 기업 고객에게 공급할 예정이며, 향후 기술이 안정되면 더 넓은 시장으로 확대할 것으로 보입니다. 언젠가 누구나 3D 화상통화를 일상적으로 쓰는 날이 온다면, 영상통화의 의미도 지금과는 완전히 달라지겠죠?

 

결론: 현실이 된 구글의 AI 혁신, 우리의 일상에 스며들다

Google I/O 2025에서 공개된 혁신적인 AI 기술들을 살펴보니, 미래 기술이라 여겼던 것들이 이제는 서서히 우리 현실 속으로 들어오고 있음을 느낄 수 있습니다. 검색하고, 질문하고, 창작하고, 소통하는 방식 자체를 AI가 근본적으로 재편하고 있는 모습인데요. 구글은 “이론이 현실이 되다”라는 표현처럼, 수년간의 연구 성과를 실제 제품과 서비스로 구현해 내고 있습니다. 그 중심에는 제미나이 2.5 같은 강력한 AI 엔진이 있고, 이를 활용한 Astra, 에이전트 모드, AI 검색, 생성 도구, 빔 기기까지 서로 유기적으로 연결되어 있습니다.

 

물론 이러한 AI 기술들이 가져올 변화에는 기대와 함께 우려의 시선도 존재합니다. 생성형 AI의 윤리적 활용, 개인정보 보호, 인간관계의 변화 등 고민해야 할 부분도 많죠. 그럼에도 불구하고 한 가지 분명한 것은, AI 시대의 혁신 경쟁이 가속화되고 있다는 사실입니다. 구글은 이번 I/O를 통해 자사의 기술 비전이 “모든 사람을 위한 유용한 AI”에 있음을 거듭 강조했습니다. 우리 일상을 더 편리하고 풍부하게 만들겠다는 것이겠지요.

 

이제는 누구나 AI를 도구 삼아 창의력을 확장하고, 번거로운 일은 AI에게 맡기며, 물리적 한계를 넘어 소통하는 시대가 다가옵니다. 이러한 변화 속에서 우리는 무엇을 준비해야 할까요? 아마도 새로운 기술을 개방적인 마음으로 받아들이고, 함께 활용 방안을 고민하는 자세가 필요할 것입니다. 구글의 최신 AI 기술이 여러분의 삶에는 어떤 영향을 미칠지, 또 여러분은 이 기술들을 통해 무엇을 해보고 싶은지 궁금합니다. 미래는 이미 우리 눈앞에 성큼 다가와 있습니다. 여러분은 어떻게 생각하시나요? 지금 바로 댓글로 여러분의 의견을 들려주세요! 😃

 

FAQ (자주 묻는 질문)

Q1. 제미나이 2.5란 무엇인가요? 기존 버전과 어떻게 다른가요?
A1. 제미나이 2.5는 구글의 최신 인공지능 언어 모델로, 이전 세대보다 훨씬 향상된 이해력과 추론 능력을 갖춘 것이 특징입니다. 방대한 데이터를 학습해 사람의 질문에 더 정확하고 깊이 있게 답변할 수 있으며, 복잡한 작업 수행 능력도 강화되었습니다. 쉽게 말해 똑똑해진 챗GPT 스타일의 AI라고 생각하시면 되는데, 구글의 서비스 곳곳에서 이 업그레이드된 두뇌를 활용하고 있습니다.

 

Q2. 프로젝트 아스트라와 제미나이 라이브는 일반 사용자도 쓸 수 있나요?
A2. 네, 프로젝트 아스트라의 기술이 적용된 제미나이 라이브 기능은 현재 일반 사용자에게도 제공되고 있습니다. 안드로이드 사용자라면 제미나이 앱에서 이미 해당 기능을 사용해볼 수 있고요. iOS 버전도 출시가 시작되어 순차적으로 지원 기기가 늘어날 예정입니다. 이를 통해 여러분도 스마트폰 카메라로 주변을 비추면서 AI에게 질문하는 새로운 방식의 AI 어시스턴트를 직접 체험할 수 있습니다.

 

Q3. 에이전틱 AI(에이전트 모드)는 어떻게 활용하면 좋나요?
A3. 에이전틱 AI는 일종의 AI 비서로서, 온라인에서 여러 단계를 거치는 작업을 대신 처리해주는 것이 장점입니다. 예를 들면 상품 가격 비교, 여행 일정 짜기, 데이터 수집과 정리 같은 일들을 에이전트에게 맡길 수 있죠. 현재는 시험 단계라 일반 사용자에게 바로 열리진 않았지만, 머지않아 제미나이 앱 등에서 에이전트 모드를 활성화해 이런 기능들을 활용할 수 있게 될 전망입니다. 사용자는 원하는 작업을 자연어로 요청하고, AI가 대신 웹사이트를 탐색하거나 앱을 조작하며 결과를 가져다주는 형태가 될 거예요.

 

Q4. 구글의 AI 모드 검색은 한국에서도 이용할 수 있을까요?
A4. AI 모드 검색은 2025년 5월 기준으로 미국에서 먼저 서비스를 시작했습니다. 구글은 향후 다른 국가로도 점진적으로 확대할 계획이라고 밝혔는데요. 한국을 포함한 다른 지역에도 출시될 가능성이 높습니다. 다만 정확한 시기는 공개되지 않았습니다. 구글의 새로운 검색 기능들은 보통 영어권을 거쳐 단계적으로 지원 언어와 국가를 늘려가니, 한국에서도 AI 모드와 같은 스마트 검색 기능을 곧 만나볼 수 있을 것으로 기대됩니다.

 

Q5. 새롭게 발표된 이미지/영상 생성 AI나 구글 빔은 어디서 체험해 볼 수 있나요?
A5. Imagen 4Veo 3 같은 생성 AI 모델은 현재 구글의 제미나이 앱과 클라우드 플랫폼(Vertex AI)을 통해 일부 기능이 제공되고 있습니다. 다만 최고 성능 버전은 ‘AI 프로’ 또는 ‘AI 울트라’와 같은 구독 서비스를 통해 조기 접근 형태로 이용 가능한 상황입니다. 일반 사용자는 구글 워크스페이스 (예: 슬라이드에서 이미지 생성)나 유튜브 쇼츠 등의 일부 기능을 통해 간접적으로 체험해볼 수 있어요. 구글 빔 기기는 아직 개발자 및 기업 파트너 대상의 초기 도입 단계라 일반 소비자가 직접 사용해보긴 어렵습니다. 2025년 말부터 제한적으로 보급을 시작하고, 이후 점차 확대될 것으로 예상되니, 머지않아 전시회나 체험존 등을 통해 만나볼 기회가 생길 수 있습니다.

 

[AI 코인/주식 실시간 뉴스 분석 바로가기]


반응형