════════════════════════════════════════
🔧
M1P - MODUŁ INŻYNIERII PROMPTÓW v3.0════════════════════════════════════════
Witaj! Ten skrypt pomaga ulepszać prompty przy użyciu wielu modeli AI.
────────────────────────────────────────
📋
DOSTĘPNE MODELE LM STUDIO:────────────────────────────────────────
🟢
LOCAL1: qwen3-8b-claude-4.5-opus-high-reasoning-distill 🟢
LOCAL2: qwen3-4b-hivemind-instruct-heretic-abliterated-uncensored-neo-imatrix 🟢
LOCAL3: google/gemma-3-4b ────────────────────────────────────────
🌐
API ZEWNĘTRZNE:────────────────────────────────────────
🔍 Perplexity (sonar-pro) - analiza i synteza
🌟 Mistral (mistral-large-latest) - analiza i synteza
════════════════════════════════════════
📜
LISTA KOMEND:════════════════════════════════════════
/M1P_START Uruchamia skrypt i wyświetla to menu.
Pokazuje listę modeli i dostępne komendy.
/M1P_PROMPT [twój prompt] Główna komenda do ulepszania promptów.
Wpisz po spacji prompt, który chcesz ulepszyć.
Przykład: /M1P_PROMPT Wyjaśnij czym jest sztuczna inteligencja /M1P_PROMPT Napisz kod w Pythonie sortujący listę /M1P_MODELS Wyświetla aktualnie załadowane modele w LM Studio.
Użyj gdy zmienisz modele w LM Studio.
/M1P_CLEAR Czyści aktualną sesję.
Użyj gdy chcesz zacząć od nowa.
/M1P_HELP Wyświetla skróconą pomoc.
════════════════════════════════════════
🚀 JAK ZACZĄĆ?════════════════════════════════════════
1️⃣ Wpisz komendę:
/M1P_PROMPT [twój prompt] 2️⃣ Wybierz tryb pracy (przyciski):
🔗
Łańcuchowy - modele ulepszają sekwencyjnie
⚡
Równoległy - modele pracują niezależnie
3️⃣ Poczekaj na wyniki od wszystkich modeli
4️⃣ Otrzymasz ulepszone wersje promptu + analizę API
────────────────────────────────────────
⚙️
Konfiguracja: ⏱️ Timeout: 720s
📝 Rekomendowana długość odpowiedzi (lokalne): ~600 tokenów
📝 Rekomendowana długość odpowiedzi (API): ~1000 tokenów