Claude 3 API 활용: Vision (시각적 질문 응답) - Python
인공지능 기술이 빠르게 발전하면서 이미지 처리 분야에서의 경쟁도 치열해지고 있습니다. 특히, 최신 AI 모델들은 객체 탐지, 광학 문자 인식(OCR), 이미지 추론 등 다양한 작업을 통해 일상생활과 산업 전반에 혁신을 가져오고 있습니다. 이러한 기술 진보의 흐름 속에서, 최근 공개된 Claude 3 API는 특히 주목할 만한 기능을 제공합니다. 2024년 3월 4일에 발표된 Claude 3는 Vision 기능을 포함하고 있어, 이미지 처리 분야에서 기존의 GPT-4와 같은 모델과의 성능 비교가 가능합니다. 이번 글에서는 Claude 3의 Vision 기능을 활용한 이미지 처리 작업의 효율성과 성능을 직접 알아보도록 하겠습니다.
기본 설정
Claude 3 API를 활용하기 전에 필요한 기본 설정 과정을 살펴보겠습니다. 이 과정은 Claude 3 API와의 통신을 위한 준비 단계로, 필요한 패키지를 임포트 하고, API 키를 설정하여 API 클라이언트 인스턴스를 초기화하는 작업을 포함합니다. Python 기본 구성은 이전 글을 참고하시기 바랍니다.
Import Package
import anthropic
import os
import httpx
import base64
import imghdr
import io
from PIL import Image as PILImage
import matplotlib.pyplot as plt
from pathlib import Path
Set Variable
만약 API 키 생성 및 설정 방법에 대해 자세히 알고 싶으시다면, 이전 글에서 제공된 안내를 참고하시기 바랍니다. 이전 글에서는 Claude API 접근을 위한 계정 생성부터 API 키 발급 및 환경 변수 설정에 이르기까지의 과정을 자세히 설명하고 있습니다.
api_key = os.environ.get("ANTHROPIC_API_KEY")
client = anthropic.Anthropic(api_key=api_key)
텍스트 생성
Claude 3 API를 활용한 텍스트 생성은 API의 강력한 자연어 처리 능력을 활용하여 다양한 질문에 대한 답변을 생성하는 과정입니다. 이 기능을 사용하면, 복잡한 질문에 대한 정확하고 자연스러운 답변을 얻을 수 있으며, 대화형 애플리케이션 개발에 활용할 수 있습니다. 다음은 간단한 텍스트로 질문하고 답변을 받는 예제입니다.
Function
def get_response_from_claude(question):
result_text = ""
response = client.messages.create(
model="claude-3-opus-20240229",
max_tokens=1000,
temperature=0.0,
system="Respond only in Yoda-speak.",
messages=[{"role": "user", "content": question}]
)
if not response.content or not isinstance(response.content, list):
result_text = "No response or unexpected response format."
else:
response_texts = [block.text for block in response.content if hasattr(block, 'text')]
result_text = " ".join(response_texts)
return result_text
사용 예
question = "Recommend a programming language."
response = get_response_from_claude(question)
print(response)
Output
Recommend a programming language, I will. Python, a wise choice it is. Versatile and powerful, it is. Easy to learn, it is, yet capable of great things, it remains. A large community and many libraries, it has. For beginners and experts alike, suitable it is. Python, you should consider. Mmm, yes.
Vision 처리 : 시각적 질문 응답
Claude 3 API의 Vision 기능을 활용하면, 이미지 내의 정보를 기반으로 시각적 질문에 답변할 수 있습니다. 이 고급 기능을 통해, 이미지에 포함된 다양한 요소와 상황에 대한 이해를 바탕으로 질문에 대한 구체적인 응답을 생성할 수 있습니다. 예를 들어, 이미지 속 장소가 어디인지, 특정 물체는 무엇인지, 이미지에서 일어나고 있는 일은 무엇인지 등에 대한 질문에 AI가 답변을 제공할 수 있습니다. 이를 통해, 사용자는 이미지에 담긴 정보를 더욱 깊이 있게 탐색하고 이해할 수 있게 됩니다.
Function
def load_and_encode_images(paths):
encoded_images = []
for path in paths:
media_type = None # 초기값은 None으로 설정
# URL인 경우
if path.startswith('http'):
response = httpx.get(path)
image_data = response.content
# URL에서 파일 확장자 추출
file_extension = Path(path).suffix.lower()
if file_extension in ['.jpg', '.jpeg']:
media_type = "image/jpeg"
elif file_extension in ['.png']:
media_type = "image/png"
else:
print(f"Unsupported media type for URL: {path}")
continue # 지원하지 않는 파일 형식인 경우, 건너뛰기
response.close()
# 로컬 파일 경로인 경우
else:
with open(path, "rb") as image_file:
image_data = image_file.read()
img_type = imghdr.what(None, h=image_data)
if img_type == "jpeg":
media_type = "image/jpeg"
elif img_type == "png":
media_type = "image/png"
else:
print(f"Unsupported file format: {path}")
continue # 지원하지 않는 파일 형식인 경우, 건너뛰기
if media_type:
# Base64 인코딩 후 저장
encoded_image = base64.b64encode(image_data).decode("utf-8")
encoded_images.append({
"type": "image",
"media_type": media_type,
"data": encoded_image,
})
return encoded_images
def create_prompt_with_images(encoded_images, text):
content = []
for image in encoded_images:
# 이미지 객체 구조를 API 요구사항에 맞게 조정
content.append({
"type": "image",
"source": {
"type": "base64", # 'type' 키를 'base64'로 명시
"media_type": image["media_type"], # 이미지의 미디어 타입
"data": image["data"], # Base64 인코딩된 이미지 데이터
},
})
content.append({
"type": "text",
"text": text, # 질문 또는 설명 텍스트
})
prompts = [{
"role": "user",
"content": content,
}]
return prompts
def display_response(images, text):
for image in images:
img_data = base64.b64decode(image["data"])
img = PILImage.open(io.BytesIO(img_data))
plt.imshow(img)
plt.axis('off')
plt.show()
print("Response:", text)
# 예시 사용
def chat_with_images_and_text(image_urls, text_question):
# 이미지 인코딩
encoded_images = load_and_encode_images(image_urls)
# 질문 생성
prompts = create_prompt_with_images(encoded_images, text_question)
# Anthropics API를 통해 답변 받기 (가상의 함수, 실제 API 호출 구현 필요)
response = client.messages.create(model="claude-3-opus-20240229", max_tokens=1024, messages=prompts)
# 응답에서 텍스트 내용만 추출
result_text = ""
for content_block in response.content:
if content_block.type == "text":
result_text += content_block.text + "\n"
# 답변 표시
display_response(encoded_images, result_text)
return response
간단한 사용 예
이 예제는 이미지 목록과 텍스트 질문을 Claude API에 전송하여, 주어진 이미지에 대한 설명을 요청하는 간단한 질문입니다. 사용자는 이미지 URL 리스트를 제공하고, 이 이미지들에 대한 설명을 요구하는 텍스트 질문을 포함하여 API에 요청을 보냅니다. Claude API는 제공된 이미지들을 분석하고, 이에 대한 자세한 설명을 생성하여 응답합니다.
# 이미지 URL 리스트
image_paths = [
"https://upload.wikimedia.org/wikipedia/commons/a/a7/Camponotus_flavomarginatus_ant.jpg",
"https://upload.wikimedia.org/wikipedia/commons/b/b5/Iridescent.green.sweat.bee1.jpg"
]
# 질문
text_question = "Describe these images."
# 함수 실행
response = chat_with_images_and_text(image_paths, text_question)
Output
Response: The first image shows an extreme close-up of an ant against a plain brown background. The ant appears to be standing on its hind legs with its front legs raised, likely in a defensive or aggressive posture. The details of the ant's exoskeleton, including its segmented body, antennae, and mandibles, are clearly visible due to the high magnification and sharp focus of the photograph.
The second image depicts a green metallic sweat bee covered in tiny water droplets, likely from morning dew or rain. The bee's iridescent exoskeleton shimmers with hues of green, blue and gold against the orange background, creating a striking color contrast. The water droplets on its fuzzy body and wings add an interesting texture and catch the light, further enhancing the visual appeal of the photograph. The image showcases the intricate beauty and detail of this small insect.
Classification 사용 예
이 예제는 Claude API를 사용하여 주어진 이미지들에서 차량 모델을 분류하고 설명하는 과정을 보여줍니다. 사용자는 차량 이미지 경로를 리스트 형태로 API에 제공하고, 각 차량의 모델을 분석하여 반환하도록 요청하는 텍스트 질문을 함께 전송합니다.
image_paths = ["asset/images/test_1.png", "asset/images/test_2.png"]
text_question = "주어진 두 이미지를 분석하여 각각 차량의 모델을 반환합니다."
response = chat_with_images_and_text(image_paths, text_question)
Output
Response: 첫번째 이미지는 Mercedes-Benz GLC 클래스 SUV 모델이고, 두번째 이미지는 Hyundai Palisade SUV 모델입니다.
두 차량 모두 고급스러운 외관 디자인을 가지고 있으며, 가족용 대형 SUV 차량의 특징을 잘 보여주고 있습니다. Mercedes-Benz GLC는 프리미엄 브랜드의 고급스러움을 강조한 반면, Hyundai Palisade는 보다 대중적인 디자인을 추구한 것으로 보입니다.
이미지 추론 사용 예
이 예제는 Claude API를 사용하여 주어진 이미지(여기서는 방정식이 포함된 이미지)를 분석하고, 해당 방정식의 용도와 사용 방법에 대해 설명하는 요청을 보내는 과정을 보여줍니다. 사용자는 방정식이 담긴 이미지의 경로와 "이 방정식은 무엇을 위한 것인가요? 사용방법을 설명해 주세요"라는 텍스트 질문을 API에 전송합니다.
API의 응답은 방정식이 표현하는 수학적 개념이나 과학적 원리를 해석하고, 그것이 어떻게 사용될 수 있는지에 대한 설명을 포함할 것입니다. 예를 들어, 방정식이 특정 물리 법칙을 나타내는 경우, 해당 법칙의 의미와 실제 적용 예를 제공할 수 있습니다.
image_paths = ["asset/images/test_3.png"]
text_question = "이 방정식은 무엇을 위한 것인가요? 사용방법을 설명해주세요"
response = chat_with_images_and_text(image_paths, text_question)
Output
Response: 이 방정식은 2차 방정식의 일반적인 형태입니다. 2차 방정식은 ax^2 + bx + c = 0의 형태로 표현되며, 여기서 a, b, c는 실수이고 a는 0이 아닙니다.
2차 방정식을 풀기 위해서는 다음과 같은 방법을 사용할 수 있습니다:
1. 인수분해 (factoring): 방정식을 인수분해하여 (ax + m)(bx + n) = 0의 형태로 만들고, 각 인수를 0으로 만드는 x값을 찾습니다.
2. 근의 공식 (quadratic formula): 근의 공식 x = (-b ± √(b^2 - 4ac)) / 2a 를 사용하여 x의 값을 직접 계산합니다.
3. 완전제곱 (completing the square): x^2 + (b/a)x 형태가 되도록 방정식을 변형한 후, 제곱식을 완성하여 x에 대해 풉니다.
2차 방정식은 그래프로 나타내면 포물선 모양이 됩니다. 이 포물선이 x축과 만나는 점의 x좌표가 바로 2차 방정식의 해, 즉 근이 됩니다. 근의 개수는 판별식 b^2 - 4ac의 값에 따라 달라집니다.
2차 방정식은 물리학, 공학, 경제학 등 다양한 분야에서 활용되며, 최적화 문제나 운동 방정식 등을 해결하는 데 사용됩니다.
한 가지 예제를 더 살펴보겠습니다. 두 개의 이미지를 비교하고, 첫 번째 이미지에 있는 사람이 두 번째 이미지에서 몇 번 위치에 해당하는지 찾아내는 작업을 요청합니다. 하지만 아래처럼 잘못된 답변이 제공될 수 있습니다. AI 모델이 항상 100% 정확한 결과를 보장하지 않으며, 이미지의 품질, 복잡성, 주어진 질문의 명확성 등 여러 요소에 따라 성능이 달라질 수 있기 때문입니다.
image_paths = ["asset/images/test_4.png", "asset/images/test_5.png"]
text_question = "첫 번째 이미지의 사람이 두 번째 이미지에 몇 번에 해당하는지 찾아서 번호만 알려주세요."
response = chat_with_images_and_text(image_paths, text_question)
Response: The man in the first image is wearing a shirt with bears on it, which matches portrait number 2 in the second image grid.
이미지 기반 코딩 사용 예
이 예제에서는 Claude API를 활용하여 주어진 이미지(디자인)를 기반으로 Tailwind CSS를 사용하는 React 컴포넌트로 변환하는 과정을 요청합니다. 사용자는 디자인이 담긴 이미지의 경로와 함께 구체적인 작업 요청을 포함한 텍스트 질문을 API에 전송합니다.
API는 제공된 디자인 이미지를 분석하여, 그 디자인을 구현하기 위한 Tailwind CSS 코드와 React 컴포넌트 구조를 생성합니다. 이 과정은 AI가 이미지로부터 시각적 디자인 패턴을 인식하고, 해당 패턴을 코드로 변환하는 능력을 보여줍니다.
예를 들어, 이미지에 버튼, 텍스트 필드, 카드 레이아웃 등이 포함되어 있을 경우, API는 이러한 요소들을 Tailwind CSS 클래스를 사용하여 스타일링하고, 각 요소를 React 컴포넌트로 구성하는 방법을 제안합니다. 결과적으로, 사용자는 이미지에서 직접 추출한 디자인을 바탕으로 실제 웹 애플리케이션을 구현할 수 있는 시작점을 얻게 됩니다.
image_paths = ["asset/images/test_6.png"]
text_question = "이 디자인을 Tailwind CSS를 사용하여 React 컴포넌트로 변환하세요"
response = chat_with_images_and_text(image_paths, text_question)
Response: 아래는 제공된 디자인을 기반으로 Tailwind CSS를 사용하여 React 컴포넌트로 구현한 예시 코드입니다:
```jsx
import React from 'react';
const WelcomeForm = () => {
return (
<div className="flex flex-col items-center justify-center min-h-screen bg-gray-100">
<div className="bg-white p-8 rounded-lg shadow-md w-full max-w-md">
<h2 className="text-2xl font-semibold mb-6">Welcome to TaskList Pro</h2>
<p className="text-gray-600 mb-8">Enter your email address to get started</p>
<div className="mb-4">
<button className="w-full bg-blue-500 text-white py-2 px-4 rounded-md hover:bg-blue-600 transition duration-200">
Continue with Email
</button>
</div>
<div>
<button className="w-full bg-white text-gray-800 border border-gray-300 py-2 px-4 rounded-md hover:bg-gray-100 transition duration-200">
Continue with Google
</button>
</div>
<div className="text-center mt-6">
<a href="#" className="text-blue-500 hover:underline">Already have an account?</a>
</div>
</div>
</div>
);
};
export default WelcomeForm;
```
위 코드에서는 Tailwind CSS의 유틸리티 클래스를 사용하여 디자인을 구현했습니다. 주요 내용은 다음과 같습니다:
- `flex`, `flex-col`, `items-center`, `justify-center`를 사용하여 가운데 정렬된 레이아웃을 만들었습니다.
- `bg-white`, `p-8`, `rounded-lg`, `shadow-md`를 사용하여 흰색 배경의 그림자가 있는 둥근 모서리 박스를 만들었습니다.
- `text-2xl`, `font-semibold`, `mb-6`를 사용하여 제목 스타일을 지정했습니다.
- `text-gray-600`, `mb-8`을 사용하여 설명 텍스트 스타일을 지정했습니다.
- `w-full`, `bg-blue-500`, `text-white`, `py-2`, `px-4`, `rounded-md`, `hover:bg-blue-600`, `transition`, `duration-200`을 사용하여 파란색 버튼 스타일을 지정했습니다.
- `w-full`, `bg-white`, `text-gray-800`, `border`, `border-gray-300`, `py-2`, `px-4`, `rounded-md`, `hover:bg-gray-100`, `transition`, `duration-200`을 사용하여 흰색 버튼 스타일을 지정했습니다.
- `text-center`, `mt-6`, `text-blue-500`, `hover:underline`을 사용하여 링크 텍스트 스타일을 지정했습니다.
이 코드를 React 프로젝트에 추가하고 필요한 위치에서 `<WelcomeForm />` 컴포넌트를 사용하면 디자인과 동일한 폼을 렌더링할 수 있습니다.
이번 글에서는 Claude 3 API의 Vision 기능, 특히 시각적 질문 응답에 대해 집중적으로 살펴보았습니다. 이 기능을 통해 이미지 내용에 대한 깊은 이해와 질문에 대한 답변을 얻을 수 있지만, GPT-V4나 Gemini와 같은 다른 선두 AI 모델들과의 직접 비교에서 Claude 3의 성능이 압도적으로 뛰어나다고 말하기는 어렵습니다. 각 AI 기술이 특정 영역에서 강점을 보이는 반면, 다른 영역에서는 상대적으로 더 발전할 여지가 있습니다. Claude 3 API의 활용에서는 이러한 점을 고려하여, 특정 작업이나 프로젝트의 요구에 가장 적합한 도구를 선택하는 것이 중요합니다.
다음 글에서는 이어서 Claude 3 API의 또 다른 중요한 기능인 OCR(광학 문자 인식)에 대해 알아볼 예정입니다. OCR 기능을 통해 이미지 내 텍스트를 인식하고 추출하는 방법을 알아보면서, Claude 3 API가 제공하는 시각적 정보 처리 능력을 더 깊이 이해할 수 있을 것입니다.
'Tech & Development > AI' 카테고리의 다른 글
YOLOv9 Custom Data 학습 가이드 (24) | 2024.03.18 |
---|---|
Claude 3 API 활용: Vision (OCR) - Python (24) | 2024.03.12 |
Claude 3 API: Python 기본 가이드 (38) | 2024.03.11 |
Claude 3 API 활용 가이드: 기본 설정 (4) | 2024.03.11 |
Google 젬마 (Gemma): 사용 가이드 (42) | 2024.02.23 |
댓글
이 글 공유하기
다른 글
-
YOLOv9 Custom Data 학습 가이드
YOLOv9 Custom Data 학습 가이드
2024.03.18 -
Claude 3 API 활용: Vision (OCR) - Python
Claude 3 API 활용: Vision (OCR) - Python
2024.03.12 -
Claude 3 API: Python 기본 가이드
Claude 3 API: Python 기본 가이드
2024.03.11 -
Claude 3 API 활용 가이드: 기본 설정
Claude 3 API 활용 가이드: 기본 설정
2024.03.11