diff --git a/public/img/dify/act1.mp4 b/public/img/dify/act1.mp4 new file mode 100644 index 0000000..27f96bd Binary files /dev/null and b/public/img/dify/act1.mp4 differ diff --git a/public/img/dify/image-20260107210940555.png b/public/img/dify/image-20260107210940555.png deleted file mode 100644 index 08b2956..0000000 Binary files a/public/img/dify/image-20260107210940555.png and /dev/null differ diff --git a/public/img/dify/image-20260107210940555.webp b/public/img/dify/image-20260107210940555.webp new file mode 100644 index 0000000..bf158f5 Binary files /dev/null and b/public/img/dify/image-20260107210940555.webp differ diff --git a/public/img/dify/image-20260107211713742.png b/public/img/dify/image-20260107211713742.png deleted file mode 100644 index d68fa32..0000000 Binary files a/public/img/dify/image-20260107211713742.png and /dev/null differ diff --git a/public/img/dify/image-20260107211713742.webp b/public/img/dify/image-20260107211713742.webp new file mode 100644 index 0000000..441ae24 Binary files /dev/null and b/public/img/dify/image-20260107211713742.webp differ diff --git a/public/img/dify/image-20260109230424025.webp b/public/img/dify/image-20260109230424025.webp new file mode 100644 index 0000000..ef295c3 Binary files /dev/null and b/public/img/dify/image-20260109230424025.webp differ diff --git a/public/img/dify/image-20260109230639695.webp b/public/img/dify/image-20260109230639695.webp new file mode 100644 index 0000000..4701d0d Binary files /dev/null and b/public/img/dify/image-20260109230639695.webp differ diff --git a/public/img/dify/image-20260109230932723.webp b/public/img/dify/image-20260109230932723.webp new file mode 100644 index 0000000..c58f134 Binary files /dev/null and b/public/img/dify/image-20260109230932723.webp differ diff --git a/public/img/dify/image-20260109231009238.webp b/public/img/dify/image-20260109231009238.webp new file mode 100644 index 0000000..30846cb Binary files /dev/null and b/public/img/dify/image-20260109231009238.webp differ diff --git a/public/img/dify/image-20260109231227550.webp b/public/img/dify/image-20260109231227550.webp new file mode 100644 index 0000000..bf0dbcb Binary files /dev/null and b/public/img/dify/image-20260109231227550.webp differ diff --git a/public/img/dify/image-20260109231249093.webp b/public/img/dify/image-20260109231249093.webp new file mode 100644 index 0000000..ac0bb41 Binary files /dev/null and b/public/img/dify/image-20260109231249093.webp differ diff --git a/public/img/dify/image-20260109231304417.webp b/public/img/dify/image-20260109231304417.webp new file mode 100644 index 0000000..690ea91 Binary files /dev/null and b/public/img/dify/image-20260109231304417.webp differ diff --git a/public/img/dify/image-20260109231506014.webp b/public/img/dify/image-20260109231506014.webp new file mode 100644 index 0000000..f1b7830 Binary files /dev/null and b/public/img/dify/image-20260109231506014.webp differ diff --git a/public/img/dify/image-20260109231518480.webp b/public/img/dify/image-20260109231518480.webp new file mode 100644 index 0000000..23b0565 Binary files /dev/null and b/public/img/dify/image-20260109231518480.webp differ diff --git a/public/img/dify/image-20260109231538774.webp b/public/img/dify/image-20260109231538774.webp new file mode 100644 index 0000000..3fc26c8 Binary files /dev/null and b/public/img/dify/image-20260109231538774.webp differ diff --git a/public/img/dify/image-20260109231631157.webp b/public/img/dify/image-20260109231631157.webp new file mode 100644 index 0000000..f96b929 Binary files /dev/null and b/public/img/dify/image-20260109231631157.webp differ diff --git a/src/content/blog-en/dify.md b/src/content/blog-en/dify.md new file mode 100644 index 0000000..fcca591 --- /dev/null +++ b/src/content/blog-en/dify.md @@ -0,0 +1,246 @@ +--- +description: 'A hands-on review of Dify, an open-source no-code LLM platform: strengths + and limits for building RAG pipelines, agent workflows, self-hosted deployments, + and how it compares to n8n/Make.' +pubDate: '2026-01-09' +tags: +- dify +- llm +- agent +- rag +- llmops +- nocode +- workflow +- self-hosted +- opensource +title: 'Dify Hands-On Review: Strengths and Limits of a No-Code LLM Platform' +--- + +## TL;DR + +**“Can I build an Agent system with Dify?”** + +Bottom line: Dify is a **powerful no-code platform purpose-built for LLM application development**. It delivers outstanding productivity for RAG pipeline setup, rapid prototyping, and integrating multiple model providers. + +That said, in environments that require enterprise-grade operational automation, fine-grained governance, and large-scale traffic handling, there are structural limitations. The right way to think about Dify is **not as a replacement for AgentOps, but as an accelerator that increases experimentation and validation speed before AgentOps**. + +--- + +## Background: Why Dify Matters + +As agent-based systems spread quickly, I keep hearing the same question in the field: + +> “If the Agent setup is about this complex, do we really need to build a complicated platform? Isn’t a no-code tool like Dify enough?” + +Based on my hands-on experience using Dify, this post summarizes **where no-code LLM platforms shine—and where they hit real limits**. + +--- + +## Two Approaches to Building Agent Platforms + +Today, Agent systems typically fall into two broad approaches. + +**Code-first architectures** (Python/TypeScript) provide explicit state management, testing, deployment, and observability. They offer maximum flexibility and tend to be better for operational stability. + +**No-code / low-code workflows** are built through a visual UI. They excel at fast experimentation and low barriers to entry—even non-developers can participate. + +Dify is one of the most notable options in the latter category: **a leading open-source platform specialized for LLM applications**. + +--- + +## What Is Dify? + +![Dify - 오픈소스 LLM 애플리케이션 플랫폼](../../../public/img/dify/image-20260107210940555.webp) + +[Dify](https://dify.ai/) is an open-source AI application platform operated by LangGenius. It focuses on building Agents, RAG, and Workflows. + +Unlike general-purpose automation tools like n8n or Make, Dify is **specialized for LLMOps**. It bundles prompt management, model routing, dataset management, evaluation loops, and more—core capabilities for building LLM apps—into a single platform. + +### Pricing and Delivery Options + +![Dify 가격 정책 - Sandbox, Professional, Team 플랜 비교](../../../public/img/dify/image-20260107211713742.webp) + +Dify offers two deployment models: **Cloud (Managed)** and **Self-hosted (OSS)**. + +The Cloud version includes Sandbox (free), Professional ($59/month), and Team ($159/month). The self-hosted option is free as open source, and it’s a strong fit for companies that care about **data sovereignty and compliance**. However, there are some constraints for team-scale operations, such as multi-user limitations. + +--- + +## Dify’s Core Strengths + +### 1. An LLMOps-Specific Platform + +Dify isn’t a general automation tool—it’s **built specifically for LLM app development**. It supports the full LLM app lifecycle: prompt versioning, model routing, evaluation, dataset management, and more. Many of these features require custom implementation in n8n or Make, but are built-in here. + +### 2. A Model-Agnostic Architecture + +It supports OpenAI and Anthropic, as well as open-source models like Llama and Mistral, plus local models via Ollama. Model switching and routing are easy, which helps with cost optimization and performance benchmarking. + +### 3. Built-In RAG Pipelines + +Without external tools, you can build an **end-to-end RAG pipeline**—data ingestion, chunking, embeddings, retrieval, and re-ranking. This is one of Dify’s strongest differentiators. + +### 4. Open Source + Self-Hosting + +Because you can self-host, Dify is a good fit for enterprise environments that require **data sovereignty, security compliance, and customization**. On-prem deployments can keep sensitive data from being exposed externally. + +### 5. Multiple Deployment Options + +After building a workflow, you can ship immediately as an API, web app, chatbot widget, iframe embed, and more. The transition from prototype to MVP is very fast. + +--- + +## When Dify Is a Great Fit + +Dify is especially effective in scenarios like these: + +For **RAG-based chatbots/copilots**, Dify’s built-in Knowledge features stand out. You can validate quickly without standing up a separate vector DB. + +It’s also well-suited for **internal knowledge assistants**. With self-hosting, you can keep data inside your network while building a Q&A system on top of internal documents. + +When you need **LLM model comparison experiments**, switching models is simple, making it easy to compare performance and cost across providers. + +It also works well as an **AI experimentation environment for non-developers**. PMs, planners, and domain experts can build prototypes directly. + +--- + +## Workflow Feature Breakdown + +Dify workflows behave similarly to established automation tools like n8n and Make. + +When creating an app, you can choose Workflow, Chatflow, Chatbot, Agent, or Text Generator. + +![Dify 앱 생성 화면 - Workflow, Chatflow, Agent 등 앱 타입 선택](../../../public/img/dify/image-20260109230424025.webp) + +The workflow editor provides an intuitive node-based UI. + +![Dify Chatflow 편집기 - 노드 기반 워크플로우 구성 화면](../../../public/img/dify/image-20260109230639695.webp) + +Thanks to the intuitive UI, you can run fast experiments at the PoC stage. The Preview feature enables immediate validation, and you also get multiple deployment options like API, Chatbot, and Embed. + + +With a single Preview click, you can see results instantly. You can build a fast feedback loop without writing code, which is particularly useful during PoC. + +![Dify Publish 옵션 - Run App, Embed, API Reference 배포 방식](../../../public/img/dify/image-20260109230932723.webp) + +Once the workflow is complete, you can deploy immediately via Run App, Embed Into Site, or API Reference. + +![Dify Embed 옵션 - iframe 임베드 및 챗봇 위젯 통합](../../../public/img/dify/image-20260109231009238.webp) + +You can easily integrate into a website via iframe embed or a chatbot widget. The speed from prototype to a real service is a clear strength of Dify. + +### Workflow Limitations + +As conditional branching and state become more complex, readability drops and maintenance costs rise. Ultimately, there’s an inherent limitation: it’s effectively expressing if/else logic through a UI. + +> Past a certain level of complexity, you end up concluding, “It’s better to write this in code.” + +--- + +## RAG Pipelines: Dify’s Strongest Area + +The most impressive part of Dify is its **Knowledge (RAG) pipeline**. + +When you upload PDFs or PPTs, it can run LLM-based OCR. Chunk settings are flexible, and you can preview results via Chunk Preview. It supports Top-k and cosine-similarity-based retrieval. The big advantage is being able to **validate end-to-end RAG quickly** without building an external vector DB or a separate pipeline. + +### Chunk Settings + +![Dify Chunk Settings - Delimiter, chunk length, overlap 설정 화면](../../../public/img/dify/image-20260109231506014.webp) + +You can fine-tune Delimiter, Maximum chunk length, Chunk overlap, and more. You can also customize text preprocessing rules. + +### Chunk Preview + +![Dify Chunk Preview - 문서 청크 분할 미리보기](../../../public/img/dify/image-20260109231518480.webp) + +After uploading a document, you can preview the actual chunking output. This is essential for RAG quality tuning. + +This part feels especially compelling. You can inspect the content and set appropriate values accordingly. + +### Retrieval Settings + +![Dify Retrieval Settings - Embedding Model, Vector Search, Top K 설정](../../../public/img/dify/image-20260109231538774.webp) + +You can intuitively tune retrieval parameters such as Embedding Model selection, Vector Search options, Rerank Model, Top K, and Score Threshold. This feels similar to implementing it in code. + +### Structural Constraints of RAG + +However, the Knowledge (Vector Store) created in Dify is **tightly bound to Dify itself**. You can’t access it directly from external services; it can only be used through Dify workflows. + +That means **reusability is low unless you build the entire system around Dify**. If you need integration with existing systems, you should factor this in. + +--- + +## Plugin Ecosystem and MCP Support + +![Dify 데이터소스 마켓플레이스 - Firecrawl, Notion, GitHub 등 연동 플러그인](../../../public/img/dify/image-20260109231631157.webp) + +Dify provides a range of data source plugins, supporting integrations with services like Firecrawl, Notion, GitHub, Google Drive, SharePoint, and Confluence. + +That said, since Dify is newer, the marketplace is still limited compared to n8n’s 500+ nodes. In many cases, you’ll likely need to implement the required MCP (Model Context Protocol) Server yourself. The ecosystem is growing quickly, but as of now, it’s less mature than n8n. + +--- + +## Operational Considerations + +### Observability Features + +Dify includes basic monitoring capabilities. + +In **Logs**, you can inspect request/response-focused logs. + +![Dify Logs - 세션별 상태, 메시지 수, 생성 시간 로그](../../../public/img/dify/image-20260109231227550.webp) + +In the **Monitoring Dashboard**, it provides baseline metrics such as Total Conversations, Active Users, Token Usage, and Token Output Speed. + +![Dify Monitoring Dashboard - 대화 수, 활성 사용자, 토큰 사용량 메트릭](../../../public/img/dify/image-20260109231249093.webp) + +It also supports **Tracing integrations**, including Langfuse, LangSmith, and Opik. + +![Dify Tracing 설정 - Langfuse, LangSmith, Opik 연동 옵션](../../../public/img/dify/image-20260109231304417.webp) + +For PoCs or small-scale operations, this is generally sufficient. + +### Limits for Enterprise Operations + +In large enterprise environments, there are some constraints. + +From a **governance** standpoint, if you need policy controls like token budget policies, failure handling and rollback, SLO/SLA-based automation, or sophisticated RBAC, it may not be a great fit. + +From an **observability** standpoint, support is currently lacking for granular metric aggregation at the Agent/Tool level and policy automation based on cost/latency/success rate. + +From a **scalability** standpoint, stability under high concurrency, load balancing, and traffic protection need to be designed and implemented by you in a self-hosted environment. + +> It’s sufficient for PoC and small-scale operations, but large-scale production environments require additional infrastructure design. + +--- + +## Differences vs. n8n and Make + +A direct apples-to-apples comparison between Dify and n8n/Make isn’t quite right—they aim at different goals. + +**n8n/Make** are general-purpose automation platforms, strong at connecting many SaaS apps and automating workflows. They have 500+ nodes and a rich ecosystem. + +**Dify** is specialized for LLM app development, providing native support for RAG, Agents, prompt management, and model routing. + +If you need general automation, n8n/Make are better choices. If your goal is **building LLM-based AI products**, Dify is often more efficient. + +--- + +## Conclusion: The Right Positioning for Dify + +Dify is a **powerful no-code platform for LLM application development**. + +Its strengths are clear: high productivity for RAG pipelines, rapid prototyping, multi-model integration, and self-hosting. It’s excellent from idea validation through MVP development. + +Its limitations are also clear. Enterprise-grade governance, fine-grained observability, and large-scale traffic handling require additional design and implementation. + +It’s best to understand Dify **not as an AgentOps replacement, but as an accelerator**. A practical strategy is to move faster during PoC and experimentation, then extend into a code-first architecture as needed when transitioning to production. + +--- + +## Key Takeaway + +> **Dify is a powerful tool for building LLM apps quickly—but large-scale operations require additional design.** \ No newline at end of file diff --git a/src/content/blog/dify.md b/src/content/blog/dify.md new file mode 100644 index 0000000..696c87d --- /dev/null +++ b/src/content/blog/dify.md @@ -0,0 +1,244 @@ +--- +description: 'Dify를 실제로 사용해본 경험을 바탕으로 오픈소스 노코드 LLM 플랫폼의 강점과 한계를 분석한다. RAG 파이프라인 구축, Agent 워크플로우, Self-hosted 배포의 장점과 n8n·Make 대비 차별점, 엔터프라이즈 운영 시 고려 사항을 정리했다.' +pubDate: '2026-01-09' +tags: + - dify + - llm + - agent + - rag + - llmops + - nocode + - workflow + - self-hosted + - opensource +title: 'Dify 실사용 리뷰: 오픈소스 노코드 LLM 플랫폼의 강점과 한계' +--- + +## TL;DR + +**"Dify로 Agent 시스템을 구축할 수 있을까?"** + +결론부터 말하면, Dify는 **LLM 애플리케이션 개발에 특화된 강력한 노코드 플랫폼**이다. 특히 RAG 파이프라인 구축, 빠른 프로토타이핑, 다양한 모델 연동에서 탁월한 생산성을 보여준다. + +다만 엔터프라이즈 수준의 운영 자동화, 세밀한 거버넌스, 대규모 트래픽 처리가 필요한 환경에서는 구조적 한계가 존재한다. Dify는 **AgentOps를 대체하는 플랫폼이 아니라, AgentOps 이전 단계에서 실험과 검증 속도를 높여주는 가속기**로 이해하는 것이 정확하다. + +--- + +## 배경: 왜 Dify에 주목하는가 + +Agent 기반 시스템이 빠르게 확산되면서, 현업에서 동일한 질문이 반복된다. + +> "이 정도 Agent 구성이라면 굳이 복잡한 플랫폼을 구축할 필요 없이, Dify 같은 노코드 툴로 충분하지 않을까?" + +이 글은 Dify를 직접 사용하며 느낀 경험을 바탕으로, **노코드 LLM 플랫폼이 어디서 빛나고 어디서 한계에 부딪히는지** 정리한다. + +--- + +## Agent 플랫폼의 두 가지 접근법 + +현재 Agent 시스템 구축 방식은 크게 두 갈래로 나뉜다. + +**Code-first 아키텍처**는 Python이나 TypeScript 기반으로 명시적인 상태 관리, 테스트, 배포, 관측성을 갖춘다. 자유도가 높고 운영 안정성 확보에 유리하다. + +**No-code / Low-code 워크플로우**는 시각적 UI로 구성하며, 빠른 실험과 낮은 진입장벽이 강점이다. 비개발자도 접근 가능하다. + +Dify는 후자 중에서도 **LLM 애플리케이션에 특화된 대표적인 오픈소스 플랫폼**이다. + +--- + +## Dify란 무엇인가 + +![Dify - 오픈소스 LLM 애플리케이션 플랫폼](../../../public/img/dify/image-20260107210940555.webp) + +[Dify](https://dify.ai/)는 LangGenius에서 운영하는 오픈소스 AI 애플리케이션 플랫폼이다. Agent, RAG, Workflow 구성에 초점을 맞추고 있다. + +n8n이나 Make 같은 범용 자동화 툴과 달리, Dify는 **LLMOps에 특화된 플랫폼**이다. 프롬프트 관리, 모델 라우팅, 데이터셋 관리, 평가 루프 등 LLM 앱 개발에 필요한 기능을 하나의 플랫폼에서 제공한다. + +### 가격 및 제공 방식 + +![Dify 가격 정책 - Sandbox, Professional, Team 플랜 비교](../../../public/img/dify/image-20260107211713742.webp) + +Dify는 **Cloud(Managed)**와 **Self-hosted(OSS)** 두 가지 방식을 제공한다. + +Cloud 버전은 Sandbox(무료), Professional($59/월), Team($159/월) 플랜으로 구성된다. Self-hosted는 오픈소스로 무료 사용이 가능하며, **데이터 주권과 컴플라이언스**가 중요한 기업에 적합하다. 다만 멀티 유저 제한 등 팀 단위 운영에는 일부 제약이 있다. + +--- + +## Dify의 핵심 강점 + +### 1. LLMOps 특화 플랫폼 + +Dify는 범용 자동화 툴이 아니라 **LLM 앱 개발에 특화된 플랫폼**이다. 프롬프트 버전 관리, 모델 라우팅, 평가(Evaluation), 데이터셋 관리 등 LLM 앱 라이프사이클 전반을 지원한다. n8n이나 Make에서는 별도 구현이 필요한 기능들이 기본 제공된다. + +### 2. 모델 불가지론(Model-agnostic) 아키텍처 + +OpenAI, Anthropic은 물론 Llama, Mistral 등 오픈소스 모델, Ollama를 통한 로컬 모델까지 다양한 프로바이더를 지원한다. 모델 전환과 라우팅이 간편해서, 비용 최적화나 성능 비교 실험에 유리하다. + +### 3. RAG 파이프라인 내장 + +외부 도구 없이 데이터 수집, 청킹, 임베딩, 검색, 리랭킹까지 **End-to-End RAG 파이프라인**을 구축할 수 있다. 이 부분은 Dify의 가장 강력한 차별점이다. + +### 4. 오픈소스 + Self-hosting + +Self-hosted 배포가 가능해서 **데이터 주권, 보안 컴플라이언스, 커스터마이징**이 필요한 엔터프라이즈 환경에 적합하다. 온프레미스 배포로 민감한 데이터를 외부로 노출하지 않을 수 있다. + +### 5. 다양한 배포 옵션 + +워크플로우 완성 후 API, 웹 앱, 챗봇 위젯, iframe 임베드 등 **다양한 형태로 즉시 배포**할 수 있다. 프로토타입에서 MVP까지의 전환이 매우 빠르다. + +--- + +## Dify가 적합한 사용 사례 + +Dify는 다음과 같은 상황에서 특히 효과적이다. + +**RAG 기반 챗봇/코파일럿 구축** 시 Dify의 내장 Knowledge 기능이 빛난다. 별도의 벡터 DB 설정 없이 빠르게 검증할 수 있다. + +**내부 지식 어시스턴트** 개발에도 적합하다. Self-hosting으로 데이터를 내부에 유지하면서 사내 문서 기반 Q&A 시스템을 구축할 수 있다. + +**LLM 모델 비교 실험**이 필요할 때 모델 전환이 간편해서 여러 모델의 성능과 비용을 빠르게 비교할 수 있다. + +**비개발자의 AI 실험 환경**으로도 훌륭하다. PM, 기획자, 도메인 전문가가 직접 프로토타입을 만들어볼 수 있다. + +--- + +## 워크플로우 기능 분석 + +Dify의 워크플로우는 n8n, Make 등 기존 자동화 툴과 유사한 방식으로 동작한다. + +앱 생성 시 Workflow, Chatflow, Chatbot, Agent, Text Generator 중 하나를 선택할 수 있다. + +![Dify 앱 생성 화면 - Workflow, Chatflow, Agent 등 앱 타입 선택](../../../public/img/dify/image-20260109230424025.webp) + +워크플로우 편집 화면은 직관적인 노드 기반 UI를 제공한다. + +![Dify Chatflow 편집기 - 노드 기반 워크플로우 구성 화면](../../../public/img/dify/image-20260109230639695.webp) + +직관적인 UI 덕분에 PoC 단계에서 빠른 실험이 가능하다. Preview 기능으로 즉각적인 검증이 되고, API, Chatbot, Embed 등 다양한 배포 옵션도 제공한다. + + +Preview 버튼 하나로 즉시 실행 결과를 확인할 수 있다. 코드 작성 없이 빠른 피드백 루프를 구성할 수 있어 PoC 단계에서 특히 유용하다. + +![Dify Publish 옵션 - Run App, Embed, API Reference 배포 방식](../../../public/img/dify/image-20260109230932723.webp) + +워크플로우 완성 후에는 Run App, Embed Into Site, API Reference 등으로 즉시 배포할 수 있다. + +![Dify Embed 옵션 - iframe 임베드 및 챗봇 위젯 통합](../../../public/img/dify/image-20260109231009238.webp) + +iframe 임베드나 챗봇 위젯 형태로 웹사이트에 쉽게 통합 가능하다. 프로토타입에서 실제 서비스까지의 전환이 빠른 점은 Dify의 명확한 강점이다. + +### 워크플로우의 한계 + +다만 조건 분기와 상태가 복잡해질수록 가독성이 저하된다. 유지보수 비용도 증가한다. 결국 if/else 로직을 UI로 표현한 형태라는 본질적 한계가 존재한다. + +> 일정 복잡도를 넘어서면 "코드로 작성하는 편이 낫다"는 결론에 도달하게 된다. + +--- + +## RAG 파이프라인: Dify의 가장 강력한 영역 + +Dify에서 가장 인상적인 부분은 **Knowledge(RAG) 파이프라인**이다. + +PDF, PPT 파일 업로드 시 LLM 기반 OCR 처리가 가능하고, Chunk 설정 자유도가 높다. Chunk Preview로 결과를 미리 확인할 수 있으며, Top-k와 Cosine Similarity 기반 검색을 지원한다. 외부 벡터 DB나 별도 파이프라인 구축 없이 **End-to-End RAG를 빠르게 검증**할 수 있다는 점이 큰 강점이다. + +### Chunk 설정 + +![Dify Chunk Settings - Delimiter, chunk length, overlap 설정 화면](../../../public/img/dify/image-20260109231506014.webp) + +Delimiter, Maximum chunk length, Chunk overlap 등을 세밀하게 조정할 수 있다. 텍스트 전처리 규칙도 커스터마이징 가능하다. + +### Chunk Preview + +![Dify Chunk Preview - 문서 청크 분할 미리보기](../../../public/img/dify/image-20260109231518480.webp) + +문서 업로드 후 실제 청크 분할 결과를 미리 확인할 수 있다. RAG 품질 튜닝에 필수적인 기능이다. + +이 부분은 참 매력적인 부분인 것 같다. 내용을 확인하면서 적절한 값을 설정할 수 있다. + +### Retrieval 설정 + +![Dify Retrieval Settings - Embedding Model, Vector Search, Top K 설정](../../../public/img/dify/image-20260109231538774.webp) + +Embedding Model 선택, Vector Search 옵션, Rerank Model, Top K, Score Threshold 등 검색 파라미터를 직관적으로 조정할 수 있다. 이 부분은 코드로 짜는 것과 유사하다고 느껴진다. + +### RAG의 구조적 제약 + +그러나 Dify에서 생성한 Knowledge(Vector Store)는 **Dify 내부에 강하게 바인딩**된다. 외부 서비스에서 직접 접근이 불가능하고, 반드시 Dify 워크플로우를 통해서만 활용할 수 있다. + +이는 **전체 시스템을 Dify 중심으로 구성하지 않는 한 재사용성이 낮다**는 의미다. 기존 시스템과의 통합이 필요한 경우 이 점을 고려해야 한다. + +--- + +## 플러그인 생태계와 MCP 지원 + +![Dify 데이터소스 마켓플레이스 - Firecrawl, Notion, GitHub 등 연동 플러그인](../../../public/img/dify/image-20260109231631157.webp) + +Dify는 다양한 데이터소스 플러그인을 제공한다. Firecrawl, Notion, GitHub, Google Drive, SharePoint, Confluence 등 주요 서비스와의 연동을 지원한다. + +다만 Dify가 후발주자이다 보니, n8n의 500개 이상 노드에 비하면 마켓플레이스 규모가 아직 제한적이다. 필요한 MCP(Model Context Protocol) Server를 직접 구현해야 하는 경우가 많을 것 같다. 생태계는 빠르게 성장 중이지만, 현 시점에서는 n8n 대비 성숙도가 낮은 편이다. + +--- + +## 운영 환경에서 고려할 점 + +### Observability 기능 + +Dify는 기본적인 모니터링 기능을 제공한다. + +**Logs**에서는 요청/응답 중심의 로그를 확인할 수 있다. + +![Dify Logs - 세션별 상태, 메시지 수, 생성 시간 로그](../../../public/img/dify/image-20260109231227550.webp) + +**Monitoring Dashboard**에서는 Total Conversations, Active Users, Token Usage, Token Output Speed 등 기본 메트릭을 제공한다. + +![Dify Monitoring Dashboard - 대화 수, 활성 사용자, 토큰 사용량 메트릭](../../../public/img/dify/image-20260109231249093.webp) + +**Tracing 연동**도 지원한다. Langfuse, LangSmith, Opik 등 외부 트레이싱 플랫폼과 연동할 수 있다. + +![Dify Tracing 설정 - Langfuse, LangSmith, Opik 연동 옵션](../../../public/img/dify/image-20260109231304417.webp) + +PoC나 소규모 운영에는 충분한 수준이다. + +### 엔터프라이즈 운영의 한계 + +다만 대규모 엔터프라이즈 환경에서는 몇 가지 제약이 있다. + +**거버넌스 측면**에서 토큰 예산 정책, 실패 처리 및 롤백, SLO/SLA 기반 자동화, 정교한 RBAC 등 세밀한 정책 제어가 필요하다면 적합하지 않을 것 같다. + +**Observability 측면**에서 Agent나 Tool 단위의 세분화된 Metric 집계, 비용·지연·성공률 기반의 정책 자동화는 현재 지원이 부족하다. + +**확장성 측면**에서 고동시성 환경에서의 안정성, 로드밸런싱, 트래픽 보호 등은 Self-hosted 환경에서 직접 구성해야 한다. + +> PoC와 소규모 운영에는 충분하지만, 대규모 Production 환경에서는 추가적인 인프라 설계가 필요하다. + +--- + +## n8n, Make와의 차이점 + +Dify를 n8n이나 Make와 단순 비교하는 것은 적절하지 않다. 지향점이 다르기 때문이다. + +**n8n/Make**는 범용 자동화 플랫폼으로, 다양한 SaaS 앱 간의 연동과 워크플로우 자동화에 강점이 있다. 500개 이상의 노드와 풍부한 생태계를 갖추고 있다. + +**Dify**는 LLM 앱 개발에 특화된 플랫폼으로, RAG, Agent, 프롬프트 관리, 모델 라우팅 등 LLM 앱에 필요한 기능을 네이티브로 제공한다. + +범용 자동화가 필요하다면 n8n/Make가 적합하고, **LLM 기반 AI 제품 개발**이 목적이라면 Dify가 더 효율적이다. + +--- + +## 결론: Dify의 올바른 포지셔닝 + +Dify는 **LLM 애플리케이션 개발을 위한 강력한 노코드 플랫폼**이다. + +**빛나는 지점**은 명확하다. RAG 파이프라인 구축, 빠른 프로토타이핑, 다양한 모델 연동, Self-hosting 지원에서 높은 생산성을 보여준다. 아이디어 검증부터 MVP 개발까지의 속도가 탁월하다. + +**한계도 분명하다.** 엔터프라이즈 수준의 거버넌스, 세밀한 Observability, 대규모 트래픽 처리가 필요한 환경에서는 추가적인 설계와 구현이 필요하다. + +Dify를 **AgentOps의 대체재가 아니라 가속기**로 이해하면 적절하다. PoC와 실험 단계에서 속도를 높이고, Production 전환 시 필요에 따라 Code-first 아키텍처로 확장하는 전략이 현실적이다. + +--- + +## 핵심 요약 + +> **Dify는 LLM 앱을 빠르게 만들어주는 강력한 도구다. 다만 대규모 운영에는 추가적인 설계가 필요하다.** diff --git a/src/content/drafts/dify.md b/src/content/drafts/dify.md deleted file mode 100644 index f360866..0000000 --- a/src/content/drafts/dify.md +++ /dev/null @@ -1,141 +0,0 @@ ---- -# description: 검색 결과 스니펫 (120-160자), 핵심 키워드 + 가치 제안 -# title: 검색 노출 핵심 (50-60자), 키워드 앞쪽 배치 -# tags: 주요 키워드 + 상위 카테고리 + 관련 기술 -description: '' -pubDate: '2026-01-06' -tags: - - -title: '' ---- - -## TL;DR - -> 3~4문장 핵심 결론. 이것만 읽어도 글의 가치를 파악할 수 있게. -> Featured Snippet 후보이므로 핵심 키워드 포함. - - - -최근 Agent에 대한 관심이 많아지면서, 두 갈래로 나눠지는 것 같다. - -흔히 말하는 바이브 코딩이란 걸 이용한 코드 기반의 Agent 시스템 구축과, 노코드 기반의 Agent 워크플로우 구축이다. 노코드 툴의 한계는 존재하지만 Agent를 코드 없이 구현한다는 부분에서 진입장벽은 확실히 낮다. 오늘 살펴볼 내용은, 후자인 노코드 툴 [dify](https://github.com/langgenius/dify)이다. - -dify는 LangGenius 라는 회사에서 운영중인 오픈소스 플랫폼이다. - -The name Dify comes from **D**o **I**t **F**or **Y**ou. - -![image-20260107210940555](../../../public/img/dify/image-20260107210940555.png) - -일단 dify는 다음과 같은 Key features 가 존재한다고 소개한다. - -1. workflow: 시각적 캔버스에서 강력한 AI 워크플로를 구축하고 테스트할 수 있따. -2. Comprehensive model support: GPT, Mistral, Llama3 및 모든 OpenAI API 호환 모델을 포괄하는 수십 개의 추론 제공업체 및 자체 호스팅 솔루션 등 수백 개의 오픈소스 LLM과 원활하게 통합 -3. Prompt IDE: 프롬프트 작성, 모델 성능 비교, TTS과 같은 추가 기능을 채팅 기반 앱에 추가하기 위한 직관적인 인터페이스 -4. RAG Pipeline: PDF, PPT 및 기타 일반적인 문서 형식에서 텍스트 추출, 문서 수집부터 검색까지 포괄적인 RAG -5. Agent capabilities: LLM 함수 호출 또는 ReAct 기반으로 에이전트를 정의하고 에이전트에 대한 사전 구축된 도구나 사용자 정의 도구 추가 -6. LLMOps: 시간 경과에 따른 애플리케이션 로그와 성능을 모니터링, 이를 통한 생산 데이터와 주석을 기반으로 프롬프트, 데이터세트, 모델을 지속적으로 개선 -7. Backend-as-a-Service: Dify의 모든 제품에는 해당 API가 함께 제공되므로 Dify를 자신의 비지니스 로직에 쉽게 통합 - -위에 내용들이 실제로 얼마나 유용한지 테스트해보는게 본 글의 목적이다. - - - -그 전에 Dify에 대해 조금 더 알아보면, 일단, Managed서비스로 Cloud환경과, Self-hosted 옵션이 존재한다. - -![image-20260107211713742](../../../public/img/dify/image-20260107211713742.png) - -가격 정책은 위의 사진과 같다. 가격은 사실 싼건지 비싼건지 잘 모르겠다. - - - ---- - -dify는 AgentOps를 대체할 수 있는가? - - - -https://www.linkedin.com/posts/petrituomola_dify-leading-agentic-workflow-builder-activity-7324263717674590208-drLz?utm_source=share&utm_medium=member_desktop&rcm=ACoAADTtEIgBaRhOOmWcUXTxiIwUPzSj9QrJ4ek - - - -https://www.reddit.com/r/difyai/comments/1owtwj5/struggling_with_dify_should_i_stick_with_it_or/ - - - -https://skywork.ai/blog/dify-review-2025-workflows-agents-rag-ai-apps/?utm_source=chatgpt.com - - - - - -## **⚠️** - -## **하지만 여전히 남아 있는 한계** - -### **🛠 1)** - -### **실질적인 운영·거버넌스 제어는 제한적** - -- Dify가 엔터프라이즈용 배포 옵션을 제공하는 건 사실이나, - - *진정한 의미의 운영 정책(토큰 예산, 완전한 RBAC, 실패 정책, SLAs, SLO 적용 등)* 은 문서상 명시적으로 깊게 제공되지는 않음. - - → 기능이 *존재하는 것처럼 보일 수 있으나*, **운영 정책 자동화 레벨은 여전히 낮음**. - - - -👉 📌 Enterprise 페이지가 “옵션이 있다”일 뿐, 실제 **정책 거버넌스/운영 자동화까지 완전하진 않음. - - - ------- - - - - - -### **🧪 2)** - -### **운영 모니터링·Metrics가 완전하지 않음** - -- observability/logging은 여전히 **사용자 입력/출력 중심 정도**이고, - - *agent/tool 단위 metric 집계, 롤백 트리거, 비용/지연 평가 지표가 실시간으로 정책화되는 수준*은 아님. - -👉 📌 모니터링은 “있다고 말할 수 있으나”, - -정책 기반 운영 자동화로 보기엔 제한적. - - - ------- - - - - - -### **📐 3)** - -### **이벤트 기반·Trigger 시스템 제한** - -- 최신 릴리즈에서는 **워크플로우 트리거(스케줄/Webhook/SaaS Event)** 지원이 강화되긴 했지만, - - *챗플로우/Agent 자체는 트리거 지원이 아직 제한적*이라고 명시됨. - -👉 📌 이벤트 기반 자동화는 Workflow 중심이고, 전체 Agent 기능이 아니라는 한계. - - - ------- - - - - - -### **📚 4)** - -### **엔터프라이즈 컴플라이언스/보안 스펙 불명확** - -- Enterprise 문서에서 보안/접근 컨트롤을 이야기는 하지만 구체적인 **ISO/SOC2 같은 인증 레벨, 감사 로그 수준, 감사 추적 정책** 등은 상세하게 다루어지지 않음. - -👉 📌 보안·규제 준수 요구가 높은 산업에서는 별도 평가가 필요.