반응형

전체 글 718

Claude Code Output Styles & Statusline 가이드

안녕하세요! 오늘은 많은 개발자분들이 궁금해하는 Claude Code Output Styles(출력 스타일) 과 Statusline(상태 표시줄) 기능에 대해 정리해 보겠습니다. Claude Code는 단순히 코드를 생성하는 AI가 아니라, 개발자 맞춤형 도구로 커스터마이징할 수 있다는 점이 큰 장점입니다.📑 목차Claude Code Output Styles란?Output Styles 종류와 특징Output Styles 활용 방법과 커스텀 설정Claude Code Statusline이란?Statusline 설정 방법과 예제 코드Output Styles와 Statusline 활용 시너지Claude Code 관련 SEO 키워드 1. Claude Code Output Styles란?Claude Code O..

이기는 투자자의 생각법 - 피어슨

0) 책 정보 한 줄제목: 이기는 투자자의 생각법 — 타이밍을 아는 투자자는 절대 실패하지 않는다 / 저자: 피어슨(김재욱) / 출판: 경이로움 / 발행: 2025-03-19, 272쪽, ISBN13 9791194508144. (예스24)1장. 모든 투자는 타이밍이다 (예스24)한 문장 핵심: “수익은 기술보다 타이밍과 리스크 가정이 만든다.”핵심 개념자만=위기 신호: “내 실력으로 성공했다”는 확증편향 경계.타이밍 > 분석: 분석은 충분조건이 아님. 진입·청산 규칙이 필요.매수는 기술, 매도는 예술: 매도는 손익·심리·대안자산을 함께 본다.실전 체크리스트최악 시나리오 3가지(금리↑, 소득↓, 유동성 경색) 사전 기입진입 조건(가격/펀더멘털/유동성) AND 손절·리밸런스 조건 명문화포지션당 손실 한도(..

후기/독서 2025.08.14

호감의 시작 - 희렌최

1) 책 한눈에 보기항목내용주제“다음에 또 만나고 싶은 사람”의 매력(호감)의 법칙과 실천 전략메시지호감은 한 끗 차이 — 단점을 ‘매력 재료’로 전환하고, 나만의 캐릭터·장르를 세팅해 관계·일·삶을 풀어낸다근거/재료저자의 라디오/뉴미디어 PD·인터뷰어 경력, 1,000+명 인터뷰 기반 인사이트구성1장 나를 보는 눈 → 2장 호감형 관찰 → 3장 내 편 만들기 → 4장 독보적 매력(실전)기본 정보북로망스, 280쪽, 초판 2024-07-23(트윙클 에디션) / eBook 2024-09-05(예스24, 예스24)2) 장별 핵심 정리1장. 나를 보는 눈을 바꾼다—“단점도 매력의 재료”자기 관찰이 출발점: ‘PD처럼’ 나를 캐스팅하듯 보라. *“김태호·나영석이라면 나를 어떤 캐릭터로 띄울까?”*라는 관점이 객..

후기/독서 2025.08.14

나를 알고 싶을 때 뇌과학을 공부합니다 - 질 볼트 테일러

1) 책·저자 배경 요약한국어판: 2022.03.30, 윌북(원제 2021). 구성은 1부(뇌·마음 메커니즘), 2부(4 캐릭터 상세), 3부(관계·중독·세대/기술 적용)입니다. (예스24, 코야문화)저자: 37세 때 좌뇌 출혈성 뇌졸중을 겪고 8년 회복, 그 경험을 TED 강연·전작으로 공유. 이번 책은 그 통찰을 “선택의 해부학+실천도구”로 정리합니다. (WIRED)2) 뇌의 4 캐릭터(모델의 뼈대)테일러는 좌/우뇌 × 사고/감정의 회로군을 묶어 4가지 캐릭터로 설명합니다. 포인트는 “누가 지금 운전대를 잡았는가를 인식→상황 맞춤 팀 플레이”예요. (Sloww, Shortform)캐릭터뇌 회로 경향주요 욕구·목표말버릇/신호(예)강점과잉 시 리스크#1 좌뇌 사고(Left Thinking)분석·언어·계획..

후기/독서 2025.08.14

꾸준함의 기술 - 이노우에 신파치

책 『꾸준함의 기술』(이노우에 신파치 저)에서 제시하는 꾸준함을 유지하기 위한 핵심 원칙을 더 자세히 설명하겠습니다. 저자는 꾸준함을 단순히 의지력에 의존하는 것이 아니라, 작은 구조와 시스템을 만들고, 행동을 자동화하는 방식으로 접근해야 한다고 강조합니다.1. 매일 한다고 '결정'핵심 아이디어: 꾸준함의 본질은 ‘매일’ 실천하는 것입니다.예를 들어, 주 1~2회 운동을 하는 것보다 매일 운동하는 것이 더 쉽다는 점을 강조합니다. 왜냐하면 '할까 말까' 고민하는 시간을 없애기 때문입니다.이렇게 되면, 의지력에 의존하지 않고 행동을 자동화 할 수 있습니다.실천 방법: 하루 일정을 정리할 때 반드시 "오늘 할 일"을 명확하게 지정하고, 무엇을 할지 미리 정해 놓습니다.2. 완벽보다 '작게 계속'핵심 아이디어..

후기/독서 2025.08.14

GPT-5 – “생각이 내장된” 차세대 AI, 무엇이 달라졌나? 🤖

어제까지는 “검색 잘하는 비서”였다면, 오늘부터는 “상황에 따라 스스로 생각 시간을 조절하는 동료”에 가깝습니다. 2025년 8월 7일 공개된 GPT-5는 한마디로 생각(Reasoning)이 기본 탑재된 통합형 AI 시스템입니다. 이 글에서는 왜 GPT-5가 중요한지, 무엇이 달라졌는지, 실무에서 바로 써먹는 방법을 쉬운 언어와 예제로 정리합니다. (OpenAI)등장 배경GPT-3 → 3.5 → 4 → 4.5 → o3(추론 특화) → GPT-5(통합형).이 흐름에서 GPT-5는 성능과 안전성, 그리고 실무 유용성을 동시에 끌어올린 모델입니다. 4.5가 대규모 사전학습을 확장했고, o3가 “생각하는 시간”을 들여 정답률을 올렸다면, GPT-5는 ‘빠른 답변’과 ‘깊은 추론’을 라우터가 자동으로 골라 쓰는 ..

OpenAI 오픈 모델(gpt-oss) – “내 PC에서 돌아가는 추론형 LLM” 🔓🧠

요즘 “회사 데이터는 밖으로 못 나가고, 그래도 GPT급 추론은 하고 싶다”는 요구 진짜 많죠. 그래서 **OpenAI의 오픈 웨이트 추론 모델 gpt-oss(120b/20b)**가 화제입니다. 라이선스 자유롭고(아파치 2.0), 에이전트 작업에 맞춰 설계됐고, 심지어 완전한 생각의 흐름(Chain-of-Thought, CoT)에 접근도 됩니다. 이 글에서 왜 나왔고, 뭐가 다르고, 어떻게 돌리면 되는지 쉽고 빠르게 정리합니다. (OpenAI)등장 배경과거 OpenAI는 GPT-2 이후엔 언어 모델을 오픈 웨이트로 거의 내놓지 않았습니다. 그런데 온프레미스/로컬 추론 수요, 비용/지연시간 최적화, 맞춤형 안전 통제 니즈가 커졌죠. 그 배경에서 **gpt-oss-120b와 gpt-oss-20b**가 202..

OpenAI, GPT-OSS 공개

120b·20b 두 모델로 살펴보는 오픈-웨이트 언어모델의 새로운 기준2025 년 8 월 5 일 발표 (OpenAI)1. GPT-OSS란?OpenAI가 gpt-oss-120b와 gpt-oss-20b 두 가지 모델을 아파치 2.0 라이선스로 공개했습니다. 두 모델은 크기 대비 뛰어난 추론 성능을 제공하며, 개인용 하드웨어에서도 저렴한 비용으로 실행할 수 있도록 최적화되었습니다. (OpenAI)gpt-oss-120b: 80 GB GPU 한 장으로 동작, OpenAI o4-mini급 추론 성능gpt-oss-20b: 16 GB 메모리만으로 실행, o3-mini와 유사한 벤치마크 결과두 모델 모두 툴 호출·체인-오브-생각(CoT)·함수호출 few-shot 등 고급 기능을 기본 지원 (OpenAI)2. 모델 아키텍..

🚀 TEI vs Ollama vs OpenAI 임베딩 완전 비교, 무료인데 성능 차이는?

🚀 임베딩 솔루션 3파전: 진짜 승자는? ╭─────────────────────────────────────────╮ │ 💰 OpenAI: $0.0001/1K (클라우드만) │ │ 🔧 TEI: 무료! (로컬) + 고성능 │ │ 🏠 Ollama: 무료! (로컬) + 간단함 │ │ │ │ 🏆 결과: 로컬에선 둘 다 무료, 차이는? │ ╰─────────────────────────────────────────╯ RAG 시스템 구축하면서 임베딩 서비스 고민해본 적 있나요? 직접 3개 다 써보고 파헤쳐봤습니다. ⚡ TL;DRTEI와 Ollama 모두 로컬에서 무..

🚀 vLLM이란? LLM 서빙의 게임체인저가 된 이유

🚀 vLLM 서빙 엔진 ┌─────────────────┐ │ PagedAttention │ │ ┌─────────────┐ │ │ │ GPU 메모리 │ │ │ │ 최적화 │ │ │ │ 24배 향상 │ │ │ └─────────────┘ │ └─────────────────┘ 💨 빠른 추론 ChatGPT를 사용할 때 "왜 이렇게 빠르지?"라고 생각해본 적 있나요? 거대한 언어 모델이 실시간으로 대답하는 건 사실 엄청난 기술적 도전입니다. 기존 방식으로는 GPU 메모리가 금세 바닥나고, 여러 사용자 요청을 처리하기엔 턱없이 부족했거든요.그런데 UC Berkeley 연구팀이 만든 vLLM이 이 모든 걸 ..

728x90
반응형