Будущее веба — это интеллект на границе (Edge)
В 2026 году просто иметь "быстрый сайт" уже недостаточно. Пользователи ждут персонализации в реальном времени. В этом посте я расскажу, как интегрировал AI-функционал прямо в свой стек на Next.js, не раздувая при этом размер бандла.
Архитектура "AI-First"
Основная проблема AI-сервисов — задержка (latency). Если запрос идет на тяжелый бэкенд в другом полушарии, магия пропадает. Я использовал Vercel AI SDK в сочетании с Edge Runtime, чтобы ответы генерировались максимально близко к пользователю.
Почему это круто:
- Streaming UI — Ответы от модели прилетают по кусочкам, как в ChatGPT, благодаря React Server Components.
- Edge Functions — Минимум задержек. Логика выполняется на ближайшем к пользователю узле сети.
- Model Agnostic — Я могу переключиться с OpenAI на Anthropic или локальную Llama 4 одной строчкой кода.
Техническая реализация
В основе лежит стриминг данных. Вместо того чтобы ждать полной генерации текста, мы используем поток:
import { streamText } from 'ai';
import { openai } from '@ai-sdk/openai';
export async function POST(req) {
const { messages } = await req.json();
const result = await streamText({
model: openai('gpt-5-turbo'),
messages,
});
return result.toDataStreamResponse();
}