| str. 17
Rozdział 1
Czym jest sztuczna inteligencja? | str. 23
1.1. Uwagi wstępne | str. 23
1.2. Projekt rozporządzenia w sprawie sztucznej inteligencji – pierwsze spotkanie | str. 25
1.3. Najczęściej wykorzystywane techniki i podejścia w zakresie sztucznej inteligencji | str. 28
1.3.1. Uczenie maszynowe | str. 29
1.3.2. Uczenie nadzorowane | str. 32
1.3.3. Uczenie częściowo nadzorowane | str. 32
1.3.4. Uczenie nienadzorowane | str. 33
1.3.5. Uczenie ze wzmacnianiem | str. 34
1.3.6. Uczenie głębokie | str. 34
1.3.7. Federated learning | str. 35
1.3.8. Generatywna sztuczna inteligencja | str. 36
1.3.9. Zautomatyzowane przetwarzanie danych i podejmowanie decyzji | str. 36
1.3.10. Anonimizacja danych – ważne dla systemów sztucznej inteligencji | str. 38
1.4. Nauka o danych, analityka danych a sztuczna inteligencja | str. 46
1.5. Systemy sztucznej inteligencji wysokiego ryzyka | str. 48
1.6. Zależności i etyka sztucznej inteligencji | str. 52
Rozdział 2
Sztuczna inteligencja w sektorze finansowym | str. 57
2.1. Czy sztuczna inteligencja w sektorze finansowym jest uregulowana? | str. 57
2.2. Przykłady zastosowań sztucznej inteligencji w sektorze finansowym | str. 63
2.3. Identyfikacja systemów pod kątem wypełnienia wymogów prawnych i regulacyjnych | str. 66
2.3.1. Wytyczne ICT | str. 67
2.3.2. Rekomendacja D Komisji Nadzoru Finansowego | str. 68
2.3.3. Rekomendacje J i W Komisji Nadzoru Finansowego | str. 69
2.3.4. Ocena skutków dla ochrony danych – DPIA | str. 70
2.3.5. Wytyczne w sprawie outsourcingu | str. 71
2.4. Zarządzanie ryzykiem systemów sztucznej inteligencji | str. 72
2.4.1. Ryzyko źródła danych i jakości danych | str. 74
2.4.2. Zarządzanie ryzykiem sztucznej inteligencji w projekcie AI Act | str. 75
2.4.3. Podejście oparte na ryzyku – risk-based approach | str. 78
2.4.4. Środki zarządzania ryzykiem sztucznej inteligencji | str. 80
2.4.5. Rekomendacje NIST w zakresie zarządzania ryzykami sztucznej inteligencji | str. 84
2.5. Rozwiązania organizacyjne | str. 87
2.5.1. Uwagi wstępne | str. 87
2.5.2. Struktura organizacyjna | str. 89
2.5.3. Obszary produktowe | str. 94
2.5.4. Obszary produktowe – wymogi w zakresie ochrony danych osobowych | str. 97
2.5.5. Obszar danych | str. 98
2.5.6. Obszar zgodności z prawem (compliance oraz jednostki wsparcia prawnego) | str. 101
2.5.7. Obszar zarządzania systemami IT | str. 103
2.5.8. Dokumentacja techniczna | str. 105
2.6. Dokumentacja dotycząca danych | str. 111
2.7. Obszar techniczny dla wdrożeń sztucznej inteligencji | str. 114
2.7.1. Nadzór człowieka | str. 116
2.7.2. Bezpieczeństwo, odporność cyfrowa | str. 121
2.7.3. Przejrzystość, udostępnianie informacji i wyjaśnialność | str. 130
2.7.3.1. Duże modele językowe a wyjaśnialność | str. 135
2.7.3.2. Stanowisko Urzędu Komisji Nadzoru Finansowego w sprawie świadczenia usługi robodoradztwa a przejrzystość | str. 137
2.7.3.3. Dylematy związane z wyjaśnialnością | str. 139
2.7.3.4. Zasada przejrzystości w przypadku systemów wchodzących w interakcję z człowiekiem | str. 141
2.7.4. Zarządzanie danymi i dane treningowe | str. 145
2.7.4.1. ISO/IEC 38507:2022 z perspektywy danych | str. 153
2.7.4.2. Zarządzanie danymi jako proces ciągły | str. 155
2.7.4.3. Przechowywanie logów i raportowanie incydentów | str. 157
2.8. Inne obowiązki | str. 161
2.8.1. Ocena skutków dla ochrony praw podstawowych | str. 161
2.8.2. Wytyczne niemieckiego organu nadzoru w zakresie wykorzystania algorytmów w sektorze finansowym | str. 166
Rozdział 3
Część produktowa | str. 169
3.1. Generatywna sztuczna inteligencja | str. 169
3.1.1. Czym jest generatywna sztuczna inteligencja? | str. 171
3.1.2. Modele LLM a Unia Europejska | str. 174
3.1.3. AI Act a wykorzystanie modeli podstawowych | str. 176
3.1.4. Zasady wdrażania systemów sztucznej inteligencji opartych na modelach podstawowych | str. 178
3.1.5. Czy generatywna sztuczna inteligencja zmieni sektor finansowy? | str. 185
3.2. Ocena zdolności kredytowej i ocena ryzyka kredytowego | str. 186
3.2.1. Prawo bankowe | str. 188
3.2.2. Prawo do uzyskania wyjaśnienia | str. 192
3.2.3. Prawo do uzyskania interwencji ludzkiej | str. 195
3.2.4. Prawo do wyrażenia własnego stanowiska | str. 196
3.2.5. Zakres danych wykorzystywanych przez system | str. 197
3.2.6. Europejski Urząd Nadzoru Bankowego a innowacyjne rozwiązania w zakresie oceny zdolności kredytowej | str. 200
3.2.7. Rekomendacja D a zarządzanie danymi w kontekście oceny zdolności kredytowej | str. 201
3.2.8. Inwentaryzacja danych | str. 203
3.2.9. Polityki, procedury, instrukcje | str. 204
3.2.10. Artykuł 10 AI Act | str. 204
3.2.11. Europejski Urząd Nadzoru Bankowego a innowacyjne rozwiązania w zakresie oceny zdolności kredytowej – kontynuacja | str. 210
3.2.12. Proces oceny zdolności kredytowej a AI Act | str. 211
3.3. Personalizacja produktów i marketing | str. 212
3.3.1. Uwagi ogólne | str. 212
3.3.2. Profilowanie i zautomatyzowane podejmowanie decyzji | str. 216
3.4. Systemy przeciwdziałania oszustwom i praniu pieniędzy oraz finansowaniu terroryzmu | str. 223
3.4.1. Fraudy a biometria behawioralna | str. 228
3.4.2. Outsourcing | str. 230
3.4.3. Wytyczne Europejskiego Urzędu Nadzoru Bankowego w zakresie zdalnego onboardingu klienta | str. 231
3.4.4. Zdalny onboarding klienta a AI Act | str. 233
3.5. Zarządzanie finansami | str. 235
3.5.1. Uwagi ogólne | str. 235
3.5.2. Zarządzanie finansami przez sztuczną inteligencję – gdzie w tym wszystkim jest człowiek? | str. 239
3.6. Chatboty i voiceboty | str. 240
3.7. Internet rzeczy i Data Act | str. 246
3.7.1. Uwagi ogólne | str. 246
3.7.2. Czy można pozyskiwać dane z IoT? | str. 251
3.8. Inne zastosowania sztucznej inteligencji w sektorze finansowym | str. 254
Zakończenie | str. 255
| str. 257