Szkolenie Midjourney: czym jest, ile kosztuje i jak uzyskać wyniki w 2026
Midjourney wydał nowy model, silnik wideo i pełny edytor webowy od czasu, gdy powstała większość samouczków. Połowa przewodników wciąż każe otworzyć Discord i wpisać /imagine — rada, która teraz należy w przypisie, nie na początku. Ten przewodnik szkoleniowy Midjourney obejmuje to, co ma znaczenie w 2026: od wyboru odpowiedniego planu subskrypcji po wygenerowanie pierwszego obrazu gotowego do produkcji. Dla głębszej ścieżki budowania umiejętności moduły Midjourney na AITutoro sięgają dalej niż jakikolwiek pojedynczy artykuł.
Czym jest Midjourney?
Midjourney to platforma generowania obrazów AI założona w 2021 roku przez Davida Holza, współzałożyciela Leap Motion. Firma jest samofinansowana — bez kapitału venture — i osiągnęła rentowność w ciągu dwóch miesięcy od publicznej bety. Wyrosła do szacowanych ponad 20 milionów zarejestrowanych użytkowników, nie wydając nic na tradycyjną reklamę.
Platforma zaczęła jako bot Discord i ta geneza wciąż myli nowicjuszy. Głównym interfejsem jest teraz aplikacja webowa na midjourney.com, która działa również jako mobilna progresywna aplikacja webowa (PWA). Discord pozostaje dostępny, ale nie jest już domyślny. Midjourney usunęło darmowy trial pod koniec marca 2023 i nie istnieje szeroko dostępne publiczne API.
To, co wyróżnia Midjourney od narzędzi takich jak podejście DALL-E do generowania obrazów czy Stable Diffusion, to opinionowana estetyka. Modele skłaniają się ku wysokiej jakości wizualnej i malarskiemu realizmowi od razu, co czyni je silnym wyborem dla materiałów marketingowych, concept artu i ilustracji edytorskich — nawet zanim nauczysz się jednego parametru. Midjourney to jedna z kilku platform opisanych w naszym przeglądzie narzędzi AI.
Porównanie planów subskrypcji Midjourney
Midjourney działa na modelu subskrypcyjnym z czterema planami. Kluczowy kompromis to godziny Fast GPU (natychmiastowe generowanie) versus Relax Mode (nieograniczony, ale wolniejszy, kolejkowany). Oto pełny podział, oparty na oficjalnym porównaniu planów Midjourney:
| Funkcja | Basic (10 USD/mies.) | Standard (30 USD/mies.) | Pro (60 USD/mies.) | Mega (120 USD/mies.) |
|---|---|---|---|---|
| Godziny Fast GPU/mies. | ~3,3 godz. (~200 obrazów) | ~15 godz. (~900 obrazów) | ~30 godz. (~1800 obrazów) | ~60 godz. (~3600 obrazów) |
| Relax Mode | Nie | Tak | Tak | Tak |
| Stealth Mode | Nie | Nie | Tak | Tak |
| Równoczesne zadania Fast | 3 | 3 | 12 | 12 |
| Zniżka roczna | 20% | 20% | 20% | 20% |
Wszystkie płatne plany zawierają prawa do użytku komercyjnego, ale obowiązuje próg przychodów: firmy zarabiające ponad 1 milion USD brutto rocznych przychodów muszą mieć subskrypcję Pro lub Mega. Basic i Standard obejmują osoby indywidualne i mniejsze firmy.
Kto powinien wybrać co:
- Hobbyści i eksploratorzy — Basic daje około 200 obrazów miesięcznie. Wystarczy do eksperymentów, nie wystarczy do pracy produkcyjnej.
- Regularni twórcy — Standard odblokowuje Relax Mode, co oznacza nieograniczone generowanie przy wolniejszej prędkości. Tu platforma staje się praktyczna do ciągłej pracy twórczej.
- Profesjonaliści i agencje — Pro dodaje Stealth Mode (obrazy pozostają prywatne) i 12 równoczesnych zadań. Jeśli produkujesz zasoby dla klientów, zacznij tutaj.
Roczne rozliczenie oszczędza 20% na każdym planie. Porównanie z modelem cenowym DALL-E znajdziesz w Midjourney vs DALL-E.
Co zmienia Midjourney V7 (i dlaczego to ważne)
V7 wystartował w kwietniu 2025 i stał się domyślnym modelem w czerwcu 2025. To nie jest przyrostowa aktualizacja — to kompletna przebudowa architektury.
Ulepszenia są znaczące: istotnie lepsza dokładność anatomiczna (dłonie, twarze, spójność ciała) i znacząco lepsze rozumienie promptów. Jeśli wypróbowałeś Midjourney rok temu i frustracje z topniejących palców lub promptów, które model zdawał się ignorować, V7 daje inne doświadczenie.
Trzy nowe funkcje się wyróżniają:
- Draft Mode renderuje obrazy 10x szybciej za połowę kosztu GPU. Traktuj to jak szkicownik — iteruj nad kompozycją i konceptem szybko, potem przełącz na pełną jakość do finalnego renderu.
- Model Personalization jest domyślnie włączony. Oceń około 200 obrazów w galerii Midjourney, a model zbuduje profil gustu. Każda generacja po tym subtelnie przesuwa się ku preferencjom estetycznym — jak trenowanie kreatywnego asystenta na wizualnym guście bez pisania jednego modyfikatora promptu.
- Voice Prompting pozwala wypowiadać prompty bezpośrednio w aplikacji webowej. Opisz, co chcesz, głosem, a Midjourney przetłumaczy to na generację. Przydatne do burzy mózgów, gdy pisanie spowalnia.
Dla użytkowników wracających z V6 lub wcześniej: aktualizacja jest automatyczna. V7 jest domyślny. Stare prompty wciąż działają, ale spodziewaj się zauważalnie innych (i ogólnie lepszych) wyników.
Kluczowe możliwości wykraczające poza tekst-do-obrazu
Generowanie wideo (V1 Video Model)
Model wideo V1 Midjourney uruchomiono w czerwcu 2025 — ale działa inaczej, niż możesz się spodziewać. Konwertuje istniejące obrazy na wideo, nie tekst na wideo. Zaczynasz od wygenerowanego obrazu (lub dowolnego przesłanego) i produkujesz pięciosekundowy klip.
Klipy można wydłużać o czterosekundowe odcinki, do 21 sekund łącznie. Domyślne wyjście to 480p i 24fps, z opcją 720p HD dla planów Standard, Pro i Mega za wyższy koszt GPU. Dwa style ruchu: Low Motion do atmosferycznych, wolnych ujęć i High Motion do szybszego, bardziej dramatycznego ruchu.
Koszt GPU jest około 8x większy niż przy generowaniu obrazów. Na planie Basic szybko zjada godziny. Subskrybenci Pro i Mega mogą generować wideo przez Relax Mode, co czyni eksperymentowanie praktycznym bez obaw o wyczerpanie czasu.
Edytor webowy
Edytor webowy, znacząco rozbudowany w erze V7, wprowadza narzędzia manipulacji obrazem bezpośrednio do Midjourney. Inpainting (zwany Vary Region) pozwala zaznaczać i regenerować konkretne części obrazu. Outpainting rozszerza płótno poza oryginalne granice. Retexture regeneruje cały obraz w nowym stylu, zachowując bazową kompozycję.
Edytor obsługuje też warstwy, inteligentne zaznaczanie z maskowaniem włączania/wykluczania i usuwanie tła. Dla wielu workflow eliminuje to podróż do Photoshopa — możesz udoskonalić obraz w tym samym narzędziu, które go wygenerowało.
Style Reference i Character Reference
Dwa parametry rozwiązują największą frustrację w generowaniu obrazów AI: niespójność.
Style Reference (--sref) kopiuje styl artystyczny — paletę kolorów, teksturę, nastrój — z obrazu referencyjnego lub numerycznego kodu stylu. Zastosuj ten sam kod --sref w dziesięciu promptach, a wszystkie wyniki dzielą spójny język wizualny. Dla spójnych z marką materiałów marketingowych to zmiana gry.
Character Reference (--cref) utrzymuje spójny wygląd postaci w generacjach. Kontroluj go przez Character Weight (--cw): ustaw 0 dla spójności samej twarzy lub 100 dla twarzy, włosów i ubrania. Przeprowadź maskotkę produktową przez tuzin scen bez morfowania w kogoś innego za każdym razem.
Niji 7 (anime i ilustracja)
Niji 7 uruchomiono w styczniu 2026 jako specjalistyczny model dla anime i ilustracji. Produkuje czystsze linie, bardziej płaską estetykę i bardziej dosłowną interpretację promptów niż główny model V7. Jeśli generujesz postacie anime, panele mangi lub zasoby w stylu ilustracji, Niji 7 natywnie obsługuje konwencje medium. Aktywuj go parametrem --niji 7.
Samouczek Midjourney: kluczowe parametry, które każdy użytkownik powinien znać
System parametrów Midjourney to miejsce, gdzie zwykli użytkownicy stają się biegłymi. Nie musisz zapamiętywać pełnej listy — te osiem pokrywa większość potrzeb kreatywnych:
--ar(proporcje) — Kontroluje wymiary obrazu.--ar 16:9dla panoramicznego,--ar 9:16dla pionowych stories. Domyślne to kwadrat (1:1).--chaos(0-100) — Dodaje wariację między czterema wygenerowanymi obrazami. Niskie wartości dają podobne wyniki; wysokie wprowadzają dzikie różnorodności. Zacznij od 20-30 dla użytecznej eksploracji.--stylize(0-1000) — Równoważy interpretację artystyczną z dokładnością promptu. Niskie wartości podążają za promptem dosłownie; wysokie pozwalają Midjourney dodać własny styl. Domyślne to 100.--no— Negatywne promptowanie.--no text, watermarkusuwa niechciane elementy. Niezbędne do czystego wyniku.--seed— Liczba wpływająca na początkową generację dla przybliżonej spójności. Użyj tego samego seeda i promptu w ramach tej samej sesji i ustawień dla podobnych wyników. Przydatne do systematycznych eksperymentów, choć seedy nie gwarantują identycznych wyników między sesjami.--sref— Zastosuj styl z obrazu referencyjnego lub numerycznego kodu stylu. Opisane w sekcji Style Reference powyżej.--cref— Utrzymuj spójność postaci w obrazach. Opisane w sekcji Character Reference powyżej.--v— Wybierz konkretną wersję modelu (--v 7,--v 6.1). Domyślne to V7.
Pełną listę parametrów znajdziesz w oficjalnej dokumentacji parametrów Midjourney.
Użytek komercyjny i licencjonowanie
Płatni subskrybenci są właścicielami wygenerowanych obrazów z pełnymi prawami komercyjnymi — "w najszerszym możliwym zakresie zgodnie z obowiązującym prawem", wg Warunków korzystania Midjourney. Możesz używać wyników do materiałów marketingowych, okładek książek, zasobów do gier, merchandise i produktów print-on-demand.
Trzy szczegóły mają znaczenie:
- Wszystkie obrazy są domyślnie publiczne. Wszystko, co generujesz, pojawia się w galerii społeczności Midjourney, chyba że masz subskrypcję Pro lub Mega z włączonym Stealth Mode. Jeśli poufność klienta ma znaczenie, uwzględnij to przy wyborze planu.
- Próg przychodów. Firmy zarabiające powyżej 1 miliona USD brutto rocznych przychodów muszą korzystać z Pro lub Mega. Plany Basic i Standard nie obejmują komercyjnego użytku na tej skali.
- Niepewność praw autorskich w USA. Czysto wygenerowane przez AI obrazy mogą nie kwalifikować się do ochrony praw autorskich wg obecnego prawa USA, które wymaga ludzkiego autorstwa. Wytyczne U.S. Copyright Office dotyczące dzieł generowanych przez AI zapewniają najnowsze ramy. Możesz używać obrazów komercyjnie na licencji Midjourney, ale egzekwowanie wyłącznej własności przez rejestrację praw autorskich pozostaje odrębną i nierozstrzygniętą kwestią prawną.
Ograniczone zastosowania obejmują deepfakes realnych osób i imitację znaków towarowych. Warunki Midjourney wyraźnie zabraniają obu.
Pierwsze kroki — pierwszy obraz w pięć minut
-
Zarejestruj się. Wejdź na midjourney.com i utwórz konto. Wybierz plan — Standard to punkt optymalny dla większości użytkowników, bo Relax Mode usuwa stres o spalanie godzin GPU.
-
Otwórz pasek Imagine. Wpisz prompt opisujący to, co chcesz. Bądź konkretny: "ceramiczny kubek kawy na drewnianym stole, poranne światło, płytka głębia ostrości" znacząco przewyższa "kubek".
-
Przejrzyj siatkę. Midjourney generuje cztery warianty. Najedź na dowolny obraz, żeby go powiększyć (wyższa rozdzielczość), utworzyć subtelne warianty lub otworzyć w edytorze.
-
Pobierz lub edytuj. Zapisz finalny obraz lub otwórz edytor webowy do udoskonalenia inpaintingiem, outpaintingiem lub reteksturowaniem.
Praktyczna wskazówka: Zaczynaj każdą sesję w Draft Mode. Działa 10x szybciej za połowę kosztu GPU, więc możesz iterować nad kompozycją i konceptem bez patrzenia, jak godziny się kończą. Przełącz na tryb Fast do finalnego, dopracowanego renderu.
Gotowe szablony promptów i kreatywne punkty startowe znajdziesz w zasobach promptów do tworzenia treści.
Moduły szkoleniowe Midjourney na AITutoro przeprowadzają przez prompty, parametry i spójność stylu krok po kroku — ustrukturyzowana alternatywa dla sklejania rozproszonych samouczków.
Naucz się Midjourney z ustrukturyzowanym szkoleniem
Znajomość interfejsu to linia startowa. Dystans między "potrafię wygenerować obraz" a "potrafię produkować spójne z marką zasoby wizualne na żądanie" sprowadza się do inżynierii promptów, kontroli stylu i integracji workflow — umiejętności, które kumulują się z praktyką.
Adaptacyjne szkolenie Midjourney na AITutoro dostosowuje się do tego, co już wiesz. Jeśli opanowałeś podstawy, przeskakuje dalej. Jeśli parametry jak --sref i --cref to nowe terytorium, przeprowadza przez nie z praktycznymi ćwiczeniami. Ścieżka szkoleniowa dla twórców obejmuje wszystko od pierwszego promptu do produkcyjnego workflow.
Rozpocznij bezpłatne szkolenie Midjourney na AITutoro — dwa moduły za darmo, bez karty kredytowej.
Rozwijaj umiejętności w AI
AITutoro zapewnia adaptacyjny trening zarówno dla ChatGPT, jak i Claude. Platforma dostosowuje się do tego, co już wiesz, więc pomijasz podstawy i skupiasz się na technikach, które posuwają pracę do przodu.
Często zadawane pytania
Powiązane porównania
Gotowy, by opanować AI?
Niezależnie od tego, czy wybrałeś ChatGPT, Claude, czy oba, ukierunkowane budowanie umiejętności zamienia dobre narzędzie w przewagę konkurencyjną.