300===Dev Framework/Apache 3

Apache Kafka - 실시간 데이터의 택배기사 📦🛵

Kafka가 데이터를 빠르게 배달해주는 택배기사라면, Kafka Streams는 그 데이터를 실시간으로 가공하고 조립하는 마법사라고 할 수 있어요. 그냥 받기만 하는 게 아니라, 받아서 조합하고, 집계하고, 변형해서 새로운 정보로 재탄생시키는 거죠!등장 배경Kafka는 원래 메시지를 저장하고 전달하는 플랫폼이었어요. 그런데 데이터를 받기만 하고 뭔가 유의미한 가공을 하려면 Spark, Flink 같은 복잡한 외부 스트리밍 시스템을 붙여야 했죠 😓Kafka Streams는 Kafka만으로 실시간 데이터 처리를 끝내고 싶은 욕망에서 탄생했어요!Kafka Streams의 탄생 이유:외부 프레임워크 없이 Kafka에서 바로 처리하고 싶다가볍고 쉽고, Java 애플리케이션처럼 개발하고 싶다내장된 상태 기반 처리..

Apache Kafka - 실시간 데이터의 택배기사 📦🛵

"실시간 데이터 스트리밍이 필요할 땐 뭐가 제일 좋을까?"라고 물으면 많은 개발자들이 입을 모아 말하는 이름이 바로 Apache Kafka입니다. 대용량 데이터를 빠르게 처리하면서도 안정성까지 챙긴 Kafka는 마치 실시간으로 데이터를 배달해주는 택배기사 같아요. 한 번에 수천만 건의 데이터를 안전하게 다른 시스템으로 옮겨주죠.등장 배경과거엔 시스템 간 데이터를 주고받을 때 파일을 직접 주고받거나, 데이터베이스 간에 복제하거나, 일일 배치 작업을 돌렸어요. 그런데 이 방식은 느리고, 실시간 처리가 어렵고, 확장성이 떨어지는 문제가 있었죠.Kafka는 LinkedIn에서 처음 개발되어, 실시간 데이터 파이프라인과 스트리밍 앱을 지원하기 위해 만들어졌어요. 이후 오픈소스로 공개되어 전 세계 수많은 기업이 사..

Apache Airflow - 워크플로우 자동화의 마법사 🧙‍♂️

안녕하세요! 오늘은 데이터 엔지니어링 세계에서 아주 중요한 도구인 Apache Airflow에 대해 알아보려고 합니다. 데이터 작업을 자동화하고 정확한 시간에, 정확한 방법으로, 정확한 순서대로 실행해야 하는 경험이 있으신가요? 🤔여러분이 식당 주방에서 요리사라고 생각해보세요.매일 같은 메뉴를 정확한 순서와 타이밍으로 준비해야 합니다재료 준비, 조리, 플레이팅까지 모든 단계가 순서대로 이루어져야 합니다어느 하나라도 잘못되면 전체 요리가 망가집니다Apache Airflow는 이런 "요리 과정"을 자동화하는 훌륭한 셰프라고 할 수 있습니다. 데이터를 추출하고, 변환하고, 적재하는 과정(ETL)을 자동화하며, 문제가 생기면 알려주는 똑똑한 도우미입니다! 🍳왜 필요한가? 🤷‍♂️Apache Airflow가..

728x90
반응형