Koszt jednego zapytania w ChatGPT zależy od wersji modelu, z którego korzystamy, oraz od ilości przetworzonych tokenów, czyli jednostek tekstu. W przypadku wersji darmowej użytkownik nie ponosi bezpośrednich kosztów za pojedyncze pytanie, natomiast w wersjach płatnych, szczególnie w API OpenAI, cena jest naliczana na podstawie liczby tokenów, a koszt jednego zapytania może wahać się od ułamków centa do kilku centów.
Jak mierzy się koszt zapytania?
Koszt zapytania dla ChatGPT w API obliczany jest na podstawie liczby tokenów, które obejmują zarówno tekst przesyłany przez użytkownika, jak i odpowiedź modelu.
„Tokeny to fragmenty słów, które model przetwarza. W języku angielskim jeden token odpowiada średnio około czterem znakom lub ¾ słowa” – źródło: dokumentacja OpenAI.
Przykład: jeśli wersja ChatGPT 3.5 kosztuje 0,0015 USD za 1 000 tokenów w części input i 0,002 USD za 1 000 tokenów w części output, to krótkie zapytanie i odpowiedź mogą kosztować mniej niż 0,01 USD.
Różnice między wersjami modelu
ChatGPT 3.5
- Tańszy w przetwarzaniu danych.
- Przydatny do prostych zadań tekstowych.
- Idealny do generowania krótszych i szybszych odpowiedzi.
ChatGPT 4
- Droższy – ceny mogą zaczynać się od około 0,03 USD za 1 000 tokenów input i 0,06 USD za 1 000 tokenów output.
- Lepsze rozumienie kontekstu i generowanie bardziej złożonych treści.
- Większe możliwości analityczne i kreatywne.
Czynniki wpływające na koszt
Finalny koszt zapytania zależy od kilku czynników:
- Długość promptu – im dłuższe pytanie, tym większa liczba tokenów.
- Długość odpowiedzi – rozbudowane odpowiedzi generują większy koszt.
- Wersja modelu – nowsze i bardziej zaawansowane modele są droższe.
- Tryb korzystania – korzystanie z API nalicza koszt inaczej niż subskrypcja ChatGPT Plus.
ChatGPT w subskrypcji a w API
„ChatGPT Plus kosztuje 20 USD miesięcznie i zapewnia dostęp do GPT-4, który w wersji darmowej jest niedostępny” – informacja z serwisu OpenAI.
W modelu subskrypcyjnym użytkownik opłaca stałą miesięczną kwotę, niezależnie od liczby zapytań. W przypadku API płaci się za faktyczną ilość przetworzonych tokenów, co pozwala na bardzo precyzyjne kontrolowanie wydatków.
Podsumowanie
Jedno zapytanie w ChatGPT może kosztować od 0 USD (wersja darmowa) do kilku centów w API, w zależności od modelu i długości interakcji. Dla firm i programistów korzystających z API istotna jest optymalizacja liczby tokenów, aby obniżyć koszty przy zachowaniu jakości odpowiedzi.