Przejdź do treści

7-warstwowa architektura referencyjna

Korporacyjne AI Agents potrzebują więcej niż LLM. Ta architektura rozdziela interfejs użytkownika, orkiestrację, agentów, logikę decyzyjną, modele, integracje i infrastrukturę na siedem niezależnych warstw. Governance przenika wszystkie warstwy jako komponent przekrojowy.

Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

Dlaczego siedem warstw

Monolityczny system AI nie jest audytowalny, nie skaluje się i nie jest możliwy do utrzymania. Architektura 7-warstwowa rozdziela odpowiedzialności: każda warstwa ma zdefiniowane zadanie i czyste interfejsy. Zmiana modelu nie wpływa na logikę biznesową. Nowy system docelowy nie zmienia agenta. Nowe wymaganie zgodności z RODO czy EU AI Act nie zmienia infrastruktury.

Architektura wynika z wymagań korporacyjnych: izolacja tenantów, Audit Trail, transparentność dla Rady Zakładowej (prawo do informacji i konsultacji zgodnie z Ustawą o radach pracowników), zgodność z EU AI Act, agnostyczne wobec modeli wdrożenie. Standardowe API LLM nie zapewniają żadnego z tych elementów.

Architektura referencyjna: 7 warstw z Governance jako komponentem przekrojowym - Presentation, Orchestration, Agent, Decision Layer, Model, Integration, Infrastructure

1. Presentation Layer

Interfejs między systemem a użytkownikiem. Bez logiki biznesowej, bez decyzji - tylko wyświetlanie i wprowadzanie danych.

  • Chat UI: Interfejs webowy dla użytkowników końcowych (kadry, księgowi). Gotowy na PWA, responsywny.
  • Dashboard: Przegląd statusu agentów, bieżących workflow, otwartych eskalacji. Oparty na rolach: pracownicy widzą swoje sprawy, menedżerowie widzą wskaźniki.
  • Portal Audytora: Dostęp audytora do Audit Trail, kontroli, dowodów. Tylko odczyt. Dla biegłych rewidentów, Rady Zakładowej, rewizji wewnętrznej.
  • REST API: Interfejs maszynowy do integracji z istniejącymi systemami. Wersjonowany, udokumentowany, z uwierzytelnianiem.

2. Orchestration Layer

Koordynuje przepływ danych między agentami, systemami i użytkownikami. Zarządza workflow, kolejkami i routingiem API.

  • Silnik workflow: Silniki open source (Trigger.dev, Camunda) do złożonych, wieloetapowych procesów. Wizualne workflow, integracja API, webhooki.
  • API Gateway: Jednolity punkt wejścia z rate limiting, uwierzytelnianiem, logowaniem, monitoringiem.
  • System kolejek: Asynchroniczne przetwarzanie dla operacji wsadowych (zamknięcie miesiąca, masowy import).
  • System zdarzeń: Reakcja w czasie rzeczywistym na przychodzące dokumenty, zmiany statusu, eskalacje.

3. Agent Layer

Wyspecjalizowane AI Agents wykonujące zadania fachowe. Każdy agent ma zdefiniowany zakres i działa w granicach wyznaczonych przez Decision Layer.

Document Agents

Czytają, rozumieją i przetwarzają dokumenty z rzeczywistym rozumieniem językowym. Faktury, zwolnienia lekarskie, umowy, zaświadczenia, paragony. Nie rozpoznawanie szablonów, nie sztywne reguły - lecz kontekstowe rozumienie.

Workflow Agents

Orkiestrują procesy między systemami. Gdy dokument musi być odczytany, decyzja podjęta i akcja wywołana w systemie docelowym - Workflow Agent koordynuje sekwencję.

Knowledge Agents

Dostarczają kontekstowe odpowiedzi z wiedzy korporacyjnej. Regulaminy, polityki, układy zbiorowe pracy, reguły compliance. Odpowiedź zawiera źródło i wersję reguły.

4. Decision Layer

Rozkłada każdy proces biznesowy na pojedyncze kroki decyzyjne i definiuje dla każdego kroku: człowiek, zestaw reguł lub AI. Każda decyzja jest dokumentowana - do audytu przez biegłych rewidentów, Radę Zakładową i rewizję wewnętrzną.

Rules Engine: Fachowe zestawy reguł, wersjonowane i identyfikowalne. Układy zbiorowe pracy, porozumienia zakładowe, logika księgowa, reguły compliance. Każda reguła ma wersję, datę obowiązywania i zakres.

Confidence Routing: Automatyczna ocena pewności decyzji. Wysoka pewność i niskie ryzyko: autonomiczna decyzja. Niska pewność lub wysokie ryzyko: eskalacja do człowieka.

Human-in-the-Loop: Architektonicznie wymuszona kontrola człowieka przy zdefiniowanych typach decyzji. Ryzyko uprzedzeń, potencjał dyskryminacji, tematy wymagające konsultacji z Radą Zakładową.

Audit Trail: Kompletna, niezmienna dokumentacja każdej decyzji. Wejście, model, ocena, reguła, wynik, znacznik czasu. Append-only.

Więcej: Decision Layer w szczegółach · Trzy rodzaje decyzji AI

5. Model Layer

Warstwa LLM. Wymienna, agnostyczna wobec modeli, oddzielona od logiki biznesowej.

Cloud LLM

Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) - przez regiony UE poszczególnych dostawców chmurowych.

Open-Source / Open-Weight LLM

Llama (Meta), Mistral, DeepSeek, gpt-oss (OpenAI, Apache 2.0) - w pełni self-hostowalne na własnym hardware. gpt-oss-120B działa na pojedynczym H100, gpt-oss-20B na 16 GB hardware konsumenckim.

Hybryda

Cloud LLM dla standardowych zadań, Self-Hosted LLM dla danych wrażliwych. Automatyczny routing według klasyfikacji danych.

Wybór modelu to kompromis między wydajnością, kosztami, ochroną danych i latencją. Warstwa modelu jest wymienna - zmiana modelu nie wpływa na logikę biznesową powyżej.

Konkretne opcje hostingu, wymagania sprzętowe i stos technologiczny: AI Infrastructure w szczegółach

6. Integration Layer

Połączenie z istniejącymi systemami korporacyjnymi. Agent nie zastępuje systemów - rozszerza je.

Kategoria systemu Integracja
ERP / FinanseSAP FI/CO, SAP S/4HANA, Comarch, Oracle Financials
HR / PayrollSAP SuccessFactors, Workday, Comarch HR
CollaborationSharePoint, Microsoft Teams (via Microsoft Graph)
DMS / ECMSharePoint, d.velop, ELO, nscale
PozostałeKażdy system z interfejsem REST lub SOAP

Logika agenta jest oddzielona od systemu docelowego. Logika księgowa jest oddzielona od eksportu. Gdy system docelowy się zmienia (np. z Comarch na SAP), zmienia się warstwa eksportu - nie agent.

7. Infrastructure Layer

Fundament wdrożeniowy. Cała architektura działa w infrastrukturze klienta - nie u Gosign, nie u zewnętrznego dostawcy.

  • Cloud (UE): Azure, AWS lub GCP - wyłącznie regiony UE. Managed Kubernetes, Managed Databases, LLM Hosting.
  • Managed EU: Vercel EU + Supabase EU. Lekka opcja UE bez własnej infrastruktury Kubernetes.
  • Self-Hosted: Własne serwery, własne centrum danych. Docker/Kubernetes, open-source LLM na własnych GPU. Pełna niezależność od Cloud Act.
  • Hybryda: Kombinacja według klasyfikacji danych. Wrażliwe obciążenia self-hosted, standardowe obciążenia w chmurze.

Wszystkie warstwy powyżej infrastruktury pozostają identyczne - niezależnie od modelu wdrożenia.

Regiony chmurowe, wymiarowanie hardware, stos technologiczny: AI Infrastructure w szczegółach

Governance jako warstwa przekrojowa

Governance nie jest pojedynczą warstwą, lecz przenika całą architekturę. Każda warstwa generuje dane governance, każda warstwa jest kontrolowana przez reguły governance.

  • Presentation: Dostęp oparty na rolach, Portal Audytora
  • Orchestration: Logowanie workflow, dokumentacja eskalacji
  • Agent: Decyzje agentów generują wpisy Audit Trail
  • Decision Layer: Rules Engine, Confidence Routing, Human-in-the-Loop
  • Model: Śledzenie wersji modelu, haszowanie danych wejściowych, odtwarzalność
  • Integration: Logowanie interfejsów, dokumentacja przepływu danych
  • Infrastructure: Szyfrowanie, Row-Level Security, izolacja tenantów

EU AI Act · Cert-Ready by Design · Współzarządzanie · Data Residency

Runtime i skalowanie

Eksploatacja produkcyjna nie jest dodatkową pracą, lecz częścią architektury. Architektura 7-warstwowa jest zaprojektowana do pracy pod obciążeniem.

  • Orkiestracja kontenerów: Wdrożenie oparte na Kubernetes. Każda warstwa działa we własnych kontenerach, niezależnie skalowalna.
  • Skalowanie horyzontalne: Agent Layer i Model Layer skalują się horyzontalnie według obciążenia. Nowy agent to więcej podów, nie więcej architektury.
  • Health Checks i Self-Healing: Liveness i Readiness Probes na wszystkich kontenerach. Automatyczny restart przy awarii, automatyczne przekierowanie przy przeciążeniu.
  • Monitoring i alerting: Metryki Prometheus na wszystkich warstwach. Dashboardy Grafana dla latencji, throughput, error rates, queue depth. Alerty przy przekroczeniu progów.
  • CI/CD: Wdrożenia oparte na GitOps. Infrastructure as Code (Terraform/Pulumi). Automatyczne testy, wdrożenia Blue-Green lub Canary.

Architektura danych

Dane przepływają przez wszystkie siedem warstw. Architektura definiuje, gdzie dane powstają, jak są przechowywane i kto ma dostęp.

  • Przepływ danych: Input (dokument, zapytanie) → Agent (analiza) → Decision Layer (decyzja) → Integration (eksport do systemu docelowego). Każdy krok generuje wpis Audit Trail.
  • Vector Store: PostgreSQL z pgvector do wyszukiwania semantycznego (RAG). Wiedza korporacyjna przechowywana jako embeddingi, nie przesyłana do zewnętrznych usług.
  • Izolacja tenantów: Row-Level Security (RLS) na poziomie bazy danych. Wymuszona architektonicznie, nie na poziomie logiki aplikacji. Każdy tenant jest w pełni izolowany.
  • Szyfrowanie: At rest (AES-256) i in transit (TLS 1.3). Zarządzanie kluczami przez dostawcę tożsamości klienta lub Hardware Security Modules (HSM).
  • Retencja danych: Konfigurowana według wymagań. Zgodność z RODO Art. 17 (prawo do usunięcia) realizowana poprzez anonimizację zamiast usuwania.
  • Backup i recovery: Automatyczne kopie zapasowe, Point-in-Time Recovery. Recovery Point Objective (RPO) i Recovery Time Objective (RTO) konfigurowane per tenant.

Architektura interfejsów

Architektura komunikuje się poprzez zdefiniowane interfejsy - wewnętrznie między warstwami i zewnętrznie z systemami źródłowymi i docelowymi.

  • REST API: Wersjonowane API (v1, v2) z dokumentacją OpenAPI. Breaking changes tylko w nowych wersjach, stare wersje utrzymywane równolegle.
  • Event-Driven: Przetwarzanie zdarzeń oparte na webhookach dla reakcji w czasie rzeczywistym. Przychodzący dokument → zdarzenie → agent przetwarza. Bez pollingu, bez opóźnienia batch.
  • MCP (Model Context Protocol): Standaryzowany protokół do integracji narzędzi w agentach LLM. Agenci korzystają z zewnętrznych narzędzi przez MCP - typizowane, udokumentowane, audytowalne.
  • Przetwarzanie wsadowe: Dla operacji masowych (zamknięcie miesiąca, rozliczenie roczne, masowy import). Oparte na kolejkach ze śledzeniem postępu i obsługą błędów.
  • API Gateway: Centralny punkt wejścia. Uwierzytelnianie (SSO/OIDC), rate limiting, logowanie żądań, monitoring. Oddziela wewnętrzną architekturę od zewnętrznych konsumentów.

Zasady projektowe

Agnostyczna wobec modeli: Brak vendor lock-in na pojedynczego LLM. Modele są wymienne. Dziś Claude, jutro gpt-oss, pojutrze model, który dziś jeszcze nie istnieje.

Agnostyczna wobec infrastruktury: Ta sama architektura na Azure, AWS, GCP, Self-Hosted lub Hybryda. Wybór infrastruktury jest decyzją klienta, nie architektury.

Agnostyczna wobec systemów: Logika agenta jest oddzielona od systemu docelowego. Logika księgowa oddzielona od eksportu. Zmiana systemu zmienia Integration Layer, nie agenta.

Governance by Design: Audit Trail, RBAC, Decision Layer i Human-in-the-Loop to komponenty architektoniczne - nie opcjonalne funkcje dodawane później.

Cert-Ready by Design: Kontrole jako obiekty danych pierwszej klasy z automatycznym generowaniem dowodów. ISO 27001, PS 951, SOC 2 - architektura dostarcza dowody.

Dostęp do kodu: Pełny dostęp do kodu źródłowego, wszystkich promptów i zestawów reguł. Konfiguracje i zestawy reguł pozostają u klienta. Stos open source tam, gdzie to możliwe. Po 12-18 miesiącach klient operuje agentami samodzielnie.

Decision Layer - przepływ decyzji

┌──────────┐    ┌──────────────┐    ┌────────────────┐
│  Input   │───>│  AI Agent    │───>│ Decision Layer │
│(dokument,│    │  analizuje,  │    │                │
│ zapytanie)│    │  rozumie,    │    │  Sprawdź        │
└──────────┘    │  ocenia      │    │  reguły         │
└──────────────┘    │                │
│  Oceń           │
│  pewność        │
│                │
│  Routing        │
│  zdecyduj       │
└───────┬────────┘
│
┌─────────────┴──────────────┐
│                            │
┌────────┴────────┐        ┌──────────┴──────────┐
│ Autonomicznie   │        │ Human-in-the-Loop   │
│                 │        │                     │
│ Wysoka pewność  │        │ Ryzyko uprzedzeń    │
│ Niskie ryzyko   │        │ Niska pewność       │
│ Brak            │        │ Ograniczenie        │
│ ograniczeń      │        │ Konsultacja RZ      │
└────────┬────────┘        └──────────┬──────────┘
│                            │
│         ┌──────────────┐   │
│         │  Człowiek    │   │
│         │  decyduje    │◄──┘
│         └──────┬───────┘
│                │
┌────────┴────────────────┴────────┐
│         Audit Trail              │
│  Input · Model · Reguła ·        │
│  Ocena · Wynik ·                 │
│  Znacznik czasu                  │
└──────────────────────────────────┘
│
┌────────┴────────┐
│  System docelowy│
│  (ERP, HR,      │
│   Payroll)      │
└─────────────────┘
Schematyczny przepływ decyzji przez Decision Layer. W środowisku produkcyjnym każdy krok jest dokumentowany jako wpis Audit Trail.

Pogłębienie

Implementacja

AI Infrastructure

Konkretne technologie, regiony chmurowe, wymiarowanie hardware, tabela stosu technologicznego.

Infrastruktura w szczegółach →

Wiedza

Blueprint 2026

Jedenaście artykułów o decyzjach infrastrukturalnych, które mają znaczenie w 2026.

Do serii artykułów →

Agenci

AI Agents

Document Agents, Workflow Agents, Knowledge Agents - trzy typy agentów dla procesów enterprise.

Do AI Agents →

Governance

Framework Governance

EU AI Act, Cert-Ready, Współzarządzanie, Data Residency - wszystkie tematy governance w jednym miejscu.

Przegląd Governance →

Często zadawane pytania o architekturę referencyjną

Dlaczego osobna architektura zamiast standardowych API LLM?

Standardowe API LLM dostarczają rozumienie języka, ale nie governance, nie Audit Trail, nie izolację tenantów, nie model uprawnień. Architektura 7-warstwowa to warstwa między LLM a systemem korporacyjnym, która dokładnie to uzupełnia. Bez tej warstwy każdy LLM pozostaje eksperymentem.

Czy architektura jest agnostyczna wobec modeli?

Tak. Warstwa modelu jest wymienna. Aktualnie wspierane: Claude, ChatGPT, Gemini, Llama, Mistral, DeepSeek, gpt-oss. Nowe modele są integrowane bez zmian w warstwach powyżej. Brak vendor lock-in na pojedynczego dostawcę LLM.

Jak architektura skaluje się przy rosnącym obciążeniu?

Każda warstwa skaluje się niezależnie. Agent Layer i Model Layer mogą być skalowane horyzontalnie bez zmian w Decision Layer ani integracji. Wdrożenie oparte na Kubernetes umożliwia auto-scaling według obciążenia.

Jak zapewniana jest izolacja tenantów?

Na poziomie bazy danych poprzez Row-Level Security (RLS). Każdy tenant widzi wyłącznie własne dane, reguły i Audit Trail. Izolacja jest wymuszona architektonicznie, nie tylko na poziomie logiki aplikacji.

Czy architekturę można wdrażać etapowo?

Tak. Warstwy są niezależne. Typowe wejście: jeden agent (np. Document Agent) z Decision Layer, podłączony do istniejącego systemu. Kolejni agenci, integracje i funkcje governance są dodawane etapowo.

Czym ta strona różni się od strony infrastruktury?

Ta strona opisuje wzorzec architektoniczny - jakie warstwy istnieją i dlaczego. Strona infrastruktury opisuje konkretną realizację - jakie technologie, jakie regiony chmurowe, jaki hardware. Architektura to co, infrastruktura to jak.

Ocena architektury dla Twojej organizacji

Analizujemy Twój istniejący krajobraz systemowy i pokazujemy, jak architektura 7-warstwowa pasuje do Twojej infrastruktury.

Umów spotkanie