Czy ocenianie habilitacji za pomocą sztucznej inteligencji to krok za daleko?” Etyczne i praktyczne aspekty automatycznej selekcji wniosków.

Czy ocenianie habilitacji za pomocą sztucznej inteligencji to krok za daleko?” Etyczne i praktyczne aspekty automatycznej selekcji wniosków.

Czy ocenianie habilitacji przez sztuczną inteligencję to krok za daleko?

Analiza etyczna i praktyczna z perspektywy 2025 r.


1. Punkt wyjścia: czym w ogóle byłaby „automatyczna selekcja”

W polskim modelu habilitacji mamy kilka filtrów – od weryfikacji formaliów, przez analizę bibliometryczną, po oceny recenzentów i głosowania komisji habilitacyjnej. Propozycje wprowadzenia AI obejmują zwykle trzy poziomy:

PoziomPrzykładowa rola AIRyzyko / zysk
A. Asystent – narzędzie podpowiada recenzentomskraca czas, ujednolica formatryzyko „tunelowego widzenia”
B. Pre-screening – algorytm odrzuca wnioski niespełniające progów bibliometrycznychodciąża komisjeryzyko błędów systematycznych, gaming
C. Decydent – w pełni zautomatyzowana decyzjamaks. wydajnośćnajwyższe ryzyko etyczne

Już dziś formalną preselekcję wykonują ludzie z arkuszami Excel; AI po prostu przenosi tę fazę z makr do modeli językowych.


2. Krajobraz regulacyjny

  • EU AI Act. Systemy decydujące o dostępie do edukacji lub kariery naukowej zaliczają się do „high-risk AI” i podlegają obowiązkowej dokumentacji, audytom i ludzkiej kontroli (Cyfrowa Strategia Europy).
  • Komisja Europejska (Horizon Europe). Wytyczne z marca 2024 r. wprost zniechęcają do używania generatywnej AI w ocenie projektów naukowych; dopuszczają jej rolę wyłącznie pomocniczą (Science|Business).
  • Polskie NCN. Od maja 2025 r. wolno używać GenAI przy pisaniu wniosków, ale recenzenci mają zakaz wprowadzania treści wniosku do narzędzi AI (Nauka w Polsce).
  • Agencje międzynarodowe. NIH (USA) i ARC (Australia) w 2023 r. formalnie zakazały AI w peer review, powołując się na poufność i oryginalność ocen (UKSG).

Wniosek: pełna automatyzacja decyzji habilitacyjnych byłaby dzisiaj niezgodna z ramami „high-risk AI”; możliwe są natomiast modele hybrydowe.


3. Argumenty za wprowadzeniem AI

  1. Wydajność i spójność – pojedynczy model może przeanalizować tysiące CV w minuty, co ogranicza losowość wynikającą z przeciążenia recenzentów.
  2. Redukcja nepotyzmu – algorytm „nie zna twarzy”. Problem: szybko „uczy się” schematów z danych historycznych (zob. sekcja 4).
  3. Uzupełnienie braków merytorycznych – LLM potrafi wychwycić plagiaty, autoplagiat i ”salami slicing” artykułów, zanim zrobi to człowiek.
  4. Dowody empiryczne – analiza 15,8 % recenzji ICLR 2024 wykazała, że recenzje wspomagane AI częściej uzyskują wyższe noty i zwiększają szansę akceptacji o ~5 pp (arXiv). To sygnał, że AI potrafi poprawić jakość oceny – o ile jest tylko narzędziem, nie arbitrem.

4. Argumenty przeciw (etyczne i praktyczne)

ObszarProblemIlustracja / dane
BiasModele LLM preferowały nazwiska kojarzone z białymi mężczyznami w 85 % porównań, a czarnoskórych mężczyzn nigdy (UW Homepage)Dyskryminacja kandydatów
EksplainowalnośćUczony odrzuca wniosek – musi umieć to uzasadnić; sieć neuronowa często nieTrudno się odwołać
PoufnośćWklejenie nieopublikowanych wyników do modelu SaaS = wyciek IPSprzeczne z oświadczeniami RDN i NCN
GamingJeśli algorytm nagradza IF i liczbę cytowań, powstaje presja na “salami science”Już dziś bibliometria bywa nadużywana (sciencewatch.pl)
DehumanizacjaPromocja naukowa to też ocena potencjału twórczego, mentoringu, reputacji w środowiskuTrudne do uchwycenia liczbowo

5. Jak można wdrożyć AI bez przekraczania czerwonej linii

  1. Model „Copilot”
    • Lokalnie hostowany LLM (on-prem lub w chmurze instytucji) generuje streszczenia, listy kontrolne, porównania dorobku.
    • Recenzent musi zatwierdzić każdą sugestię; logi trafiają do archiwum audytowego.
  2. Semafor formalny
    • Ustalone jawne progi bibliometryczne (np. minimalna liczba punktów MEiN, IF, cytowań).
    • AI tylko sygnalizuje braki; decyzja o odrzuceniu wymaga podpisu człowieka.
  3. Kontrola jakości
    • Obowiązkowy audyt różnorodności wyników (gender, dziedzina, afiliacja).
    • Testy „bias bounties” przed każdą aktualizacją modelu.
  4. Mechanizm odwoławczy
    • Kandydat ma prawo poprosić o pełny raport z decyzji algorytmu w formie zrozumiałej dla człowieka (EU AI Act Art. 15).
  5. Iteracyjne pilotaże
    • Start od jednej dyscypliny z niedużą liczbą wniosków (np. nauki o ziemi).
    • Wnioski z pilotażu publikowane w open access.

6. Minimalne warunki etyczne wg standardów 2025

WymógDlaczego konieczny?
Rejestr systemu w bazie UEObowiązek dla „high-risk AI” (Cyfrowa Strategia Europy)
Dokumentacja datasetówOcena biasu i pokrycia dziedzinowego
Explainability-by-designUłatwia odwołania
Ludzka odpowiedzialność końcowaZgodnie z NCN i KE – AI nie może być jedynym decydentem (Nauka w Polsce, Science|Business)
Regularny audyt zewnętrznyZapobiega „regulatory capture”

7. Czy to „krok za daleko”?

  • Automatyczna decyzja (model C) – tak, na ten moment to zbyt duże ryzyko i naruszenie przepisów high-risk AI.
  • AI-as-assistant (model A/B) – nie, o ile:
    • system jest transparentny,
    • działa w trybie „human-in-the-loop”,
    • przechodzi testy na stronniczość,
    • istnieje mechanizm odwołania.

Spekulacja (oznaczone): przy spodziewanym wejściu w pełni w życie AI Act (2026-27) zobaczymy w Polsce pierwsze centralne pilotaże „Copilot-for-habilitacja” hostowane przez RDN lub OPI-PIB. Pełna automatyzacja pozostanie jednak prawnie i społecznie nieakceptowalna co najmniej do końca dekady.


8. Rekomendacje dla decydentów

  1. Stwórz sandbox regulacyjny – mała skala, pełna publikacja metryk; partnerami mogą być uczelnie z silnymi wydziałami informatyki.
  2. Zdefiniuj minimalny zestaw danych szkoleniowych (profile ORCID, bazowe bibliometrie, ale bez wrażliwych danych osobowych).
  3. Ustanów Radę Etyki AI ds. awansów naukowych z udziałem ekspertów od AI, socjologii nauki i prawa.
  4. Ucz kolegium recenzentów – szkolenia z interpretacji outputu modelu i rozpoznawania halucynacji.
  5. Monitoruj efekty – roczna publikacja wskaźników (czas obsługi, odsetek odwołań, różnice demograficzne).

9. Podsumowanie

AI w ocenie habilitacji nie musi być krokiem za daleko, pod warunkiem że pozostanie narzędziem pomocniczym, objętym rygorystycznym nadzorem i pełną przejrzystością procesu. W pełni zautomatyzowana „selekcja wniosków” koliduje zarówno z wymogami EU AI Act, jak i z podstawowym etosem akademickim – odpowiedzialnością, otwartą debatą i oceną wielowymiarowego dorobku naukowca.


Źródła kluczowe
(Cyfrowa Strategia Europy, Science|Business, Nauka w Polsce, UKSG, UW Homepage, arXiv, sciencewatch.pl)