Czy ocenianie habilitacji przez sztuczną inteligencję to krok za daleko?
Analiza etyczna i praktyczna z perspektywy 2025 r.
1. Punkt wyjścia: czym w ogóle byłaby „automatyczna selekcja”
W polskim modelu habilitacji mamy kilka filtrów – od weryfikacji formaliów, przez analizę bibliometryczną, po oceny recenzentów i głosowania komisji habilitacyjnej. Propozycje wprowadzenia AI obejmują zwykle trzy poziomy:
| Poziom | Przykładowa rola AI | Ryzyko / zysk |
|---|---|---|
| A. Asystent – narzędzie podpowiada recenzentom | skraca czas, ujednolica format | ryzyko „tunelowego widzenia” |
| B. Pre-screening – algorytm odrzuca wnioski niespełniające progów bibliometrycznych | odciąża komisje | ryzyko błędów systematycznych, gaming |
| C. Decydent – w pełni zautomatyzowana decyzja | maks. wydajność | najwyższe ryzyko etyczne |
Już dziś formalną preselekcję wykonują ludzie z arkuszami Excel; AI po prostu przenosi tę fazę z makr do modeli językowych.
2. Krajobraz regulacyjny
- EU AI Act. Systemy decydujące o dostępie do edukacji lub kariery naukowej zaliczają się do „high-risk AI” i podlegają obowiązkowej dokumentacji, audytom i ludzkiej kontroli (Cyfrowa Strategia Europy).
- Komisja Europejska (Horizon Europe). Wytyczne z marca 2024 r. wprost zniechęcają do używania generatywnej AI w ocenie projektów naukowych; dopuszczają jej rolę wyłącznie pomocniczą (Science|Business).
- Polskie NCN. Od maja 2025 r. wolno używać GenAI przy pisaniu wniosków, ale recenzenci mają zakaz wprowadzania treści wniosku do narzędzi AI (Nauka w Polsce).
- Agencje międzynarodowe. NIH (USA) i ARC (Australia) w 2023 r. formalnie zakazały AI w peer review, powołując się na poufność i oryginalność ocen (UKSG).
Wniosek: pełna automatyzacja decyzji habilitacyjnych byłaby dzisiaj niezgodna z ramami „high-risk AI”; możliwe są natomiast modele hybrydowe.
3. Argumenty za wprowadzeniem AI
- Wydajność i spójność – pojedynczy model może przeanalizować tysiące CV w minuty, co ogranicza losowość wynikającą z przeciążenia recenzentów.
- Redukcja nepotyzmu – algorytm „nie zna twarzy”. Problem: szybko „uczy się” schematów z danych historycznych (zob. sekcja 4).
- Uzupełnienie braków merytorycznych – LLM potrafi wychwycić plagiaty, autoplagiat i ”salami slicing” artykułów, zanim zrobi to człowiek.
- Dowody empiryczne – analiza 15,8 % recenzji ICLR 2024 wykazała, że recenzje wspomagane AI częściej uzyskują wyższe noty i zwiększają szansę akceptacji o ~5 pp (arXiv). To sygnał, że AI potrafi poprawić jakość oceny – o ile jest tylko narzędziem, nie arbitrem.
4. Argumenty przeciw (etyczne i praktyczne)
| Obszar | Problem | Ilustracja / dane |
|---|---|---|
| Bias | Modele LLM preferowały nazwiska kojarzone z białymi mężczyznami w 85 % porównań, a czarnoskórych mężczyzn nigdy (UW Homepage) | Dyskryminacja kandydatów |
| Eksplainowalność | Uczony odrzuca wniosek – musi umieć to uzasadnić; sieć neuronowa często nie | Trudno się odwołać |
| Poufność | Wklejenie nieopublikowanych wyników do modelu SaaS = wyciek IP | Sprzeczne z oświadczeniami RDN i NCN |
| Gaming | Jeśli algorytm nagradza IF i liczbę cytowań, powstaje presja na “salami science” | Już dziś bibliometria bywa nadużywana (sciencewatch.pl) |
| Dehumanizacja | Promocja naukowa to też ocena potencjału twórczego, mentoringu, reputacji w środowisku | Trudne do uchwycenia liczbowo |
5. Jak można wdrożyć AI bez przekraczania czerwonej linii
-
Model „Copilot”
- Lokalnie hostowany LLM (on-prem lub w chmurze instytucji) generuje streszczenia, listy kontrolne, porównania dorobku.
- Recenzent musi zatwierdzić każdą sugestię; logi trafiają do archiwum audytowego.
-
Semafor formalny
- Ustalone jawne progi bibliometryczne (np. minimalna liczba punktów MEiN, IF, cytowań).
- AI tylko sygnalizuje braki; decyzja o odrzuceniu wymaga podpisu człowieka.
-
Kontrola jakości
- Obowiązkowy audyt różnorodności wyników (gender, dziedzina, afiliacja).
- Testy „bias bounties” przed każdą aktualizacją modelu.
-
Mechanizm odwoławczy
- Kandydat ma prawo poprosić o pełny raport z decyzji algorytmu w formie zrozumiałej dla człowieka (EU AI Act Art. 15).
-
Iteracyjne pilotaże
- Start od jednej dyscypliny z niedużą liczbą wniosków (np. nauki o ziemi).
- Wnioski z pilotażu publikowane w open access.
6. Minimalne warunki etyczne wg standardów 2025
| Wymóg | Dlaczego konieczny? |
|---|---|
| Rejestr systemu w bazie UE | Obowiązek dla „high-risk AI” (Cyfrowa Strategia Europy) |
| Dokumentacja datasetów | Ocena biasu i pokrycia dziedzinowego |
| Explainability-by-design | Ułatwia odwołania |
| Ludzka odpowiedzialność końcowa | Zgodnie z NCN i KE – AI nie może być jedynym decydentem (Nauka w Polsce, Science|Business) |
| Regularny audyt zewnętrzny | Zapobiega „regulatory capture” |
7. Czy to „krok za daleko”?
- Automatyczna decyzja (model C) – tak, na ten moment to zbyt duże ryzyko i naruszenie przepisów high-risk AI.
-
AI-as-assistant (model A/B) – nie, o ile:
- system jest transparentny,
- działa w trybie „human-in-the-loop”,
- przechodzi testy na stronniczość,
- istnieje mechanizm odwołania.
Spekulacja (oznaczone): przy spodziewanym wejściu w pełni w życie AI Act (2026-27) zobaczymy w Polsce pierwsze centralne pilotaże „Copilot-for-habilitacja” hostowane przez RDN lub OPI-PIB. Pełna automatyzacja pozostanie jednak prawnie i społecznie nieakceptowalna co najmniej do końca dekady.
8. Rekomendacje dla decydentów
- Stwórz sandbox regulacyjny – mała skala, pełna publikacja metryk; partnerami mogą być uczelnie z silnymi wydziałami informatyki.
- Zdefiniuj minimalny zestaw danych szkoleniowych (profile ORCID, bazowe bibliometrie, ale bez wrażliwych danych osobowych).
- Ustanów Radę Etyki AI ds. awansów naukowych z udziałem ekspertów od AI, socjologii nauki i prawa.
- Ucz kolegium recenzentów – szkolenia z interpretacji outputu modelu i rozpoznawania halucynacji.
- Monitoruj efekty – roczna publikacja wskaźników (czas obsługi, odsetek odwołań, różnice demograficzne).
9. Podsumowanie
AI w ocenie habilitacji nie musi być krokiem za daleko, pod warunkiem że pozostanie narzędziem pomocniczym, objętym rygorystycznym nadzorem i pełną przejrzystością procesu. W pełni zautomatyzowana „selekcja wniosków” koliduje zarówno z wymogami EU AI Act, jak i z podstawowym etosem akademickim – odpowiedzialnością, otwartą debatą i oceną wielowymiarowego dorobku naukowca.
Źródła kluczowe
(Cyfrowa Strategia Europy, Science|Business, Nauka w Polsce, UKSG, UW Homepage, arXiv, sciencewatch.pl)


