W najnowszym odcinku programu „Nasza Przyszłość” dr Marcin Korecki podejmuje jeden z najważniejszych tematów współczesności: wiarygodność sztucznej inteligencji.
Czy ChatGPT i inne modele AI mogą „halucynować”, czyli generować informacje, które brzmią przekonująco, ale są nieprawdziwe?
Niektóre ekspertyzy i analizy wskazują, że poziom błędnych odpowiedzi w określonych zastosowaniach może sięgać 65%, a nawet 75%.
W programie analizujemy:
✔ czym są tzw. halucynacje AI
✔ czy sztuczna inteligencja może manipulować danymi
✔ gdzie AI bywa zawodna – prawo, medycyna, ekspertyzy
✔ jak odróżnić poprawne dane od generowanych błędów
✔ czy problem leży w technologii, czy w sposobie jej używania
Rozmawiamy o odpowiedzialności użytkowników, twórców systemów oraz o przyszłości regulacji prawnych dotyczących AI.
To program dla wszystkich, którzy korzystają z narzędzi sztucznej inteligencji – w pracy, edukacji i biznesie.
👉 Subskrybuj PPTV, aby nie przegapić kolejnych odcinków!
📲 ZOSTAŃ Z NAMI:
📲 Oglądaj i bądź na bieżąco z PPTV
🌐 Strona główna: https://pp-tv.tv
📺 YouTube: PP-TV
👍 Facebook: https://www.facebook.com/PPtelevision
📸 Instagram: https://www.instagram.com/pp.tv.tv
❤️ Wspieraj nas: https://patronite.pl/pp-tv.tv
🏷 TAGI
Nasza Przyszłość, Marcin Korecki, ChatGPT halucynacje, sztuczna inteligencja błędy, AI manipulacja, fałszowanie danych, wiarygodność AI, regulacje AI, bezpieczeństwo informacji, technologia przyszłości, dezinformacja AI, ekspertyzy AI, cyfrowa manipulacja, algorytmy sztucznej inteligencji,
#️⃣ HASHTAGI
#NaszaPrzyszłość
#MarcinKorecki
#SztucznaInteligencja
#ChatGPT
#AI
#Technologia
#Manipulacja
#Dezinformacja
#Przyszłość
#Wydarzeniemonitorowane
Polska Platforma Telewizyjna – Telewizja Polska Na Świecie PPTV
