Do czasu aż AI nie będzie nas dopytywać o szczegóły implementacji to nie mamy się o co martwić. Prosta sytuacja:
"Hej napisz mi kod który umożliwi mi rabatowanie produktów o 10%"
oto co mi gpt wypluwa
function applyDiscount($originalPrice) {
// Calculate the discount amount
$discountAmount = $originalPrice * 0.10;
// Calculate the discounted price
$discountedPrice = $originalPrice - $discountAmount;
// Return the discounted price
return $discountedPrice;
}
do czasu aż bot nie zada nam nastepujących pytań:
- "czy można będzie zastsować rabaty na produkty w zamówieniach które zostały rozpoczęte, ale jeszcze nie opłacone?"
- "czy oprócz rabatu 10% będą jeszcze jakieś inne rabaty?"
- "czy wartość 10% może ulec zmianie po czasie?"
- "czy będą inne wartości rabatów?"
- "czy rabaty będą ograniczone czasowo?"
- "gdzie będzie przechowywana wartość rabatu (baza danych/plik konfiguracyjny)?"
nasza robota nie jest zagrożona. Poza tym, robota w stylu "chat-gpt prompter" to będzie coś bliżej obecnych PO/PM/ - którzy nawet obecnie nie zawsze są w stanie przewidzieć wszystkie zagrożenia/warianty.
Nie ma się czego bać, a jak kto się i tak boi - to niech zacznie się uczyć pisać dobre prompty.
Wydaje mi się, że nawet w najlepszych firmach zdarzają się wpadki, bo "błądzić jest rzeczą ludzką". Niektórych przypadków nie da się też uniknąć inaczej niż robiąc błąd. Uczymy się na błędach. Aktualne AI jest o tyle głupie, ze uczy się zarówno na sukcesach jak i na błędach (zbierane dane też nie zawsze są poprawne), a to jest jeszcze gorsze podejście, bo spytałem GPT odnośnie powyzeszego kodu tak:
Is the function you wrote correct?
Odpowiedział, ze sorry... był jakiś błąd, więc wkleił ponownie ten sam kod. A dodam tylko, że oczekiwałem odpowiedzi typu true/false.
Spytałem potem
What's the difference between the first and the second code you provided?
Na co dostałem odpowiedź, że sorry, jednak dwie funkcje są takie same i wkleił mi tą samą funkcję po raz trzeci.
No sorry - tu już uczeń podstawówki lepiej się komunikuje.