Οι τεχνικές βελτιώσεις, η συσσώρευση μεγάλων, λεπτομερών συνόλων δεδομένων και η πρόοδος στο hardware των υπολογιστών οδήγησαν σε μια επανάσταση της Τεχνητής Νοημοσύνης (AI).

Για παράδειγμα, οι καινοτομίες στο computer vision επέτρεψαν την αυτοματοποιημένη λήψη αποφάσεων με βάση εικόνες και βίντεο, η δημιουργία μεγάλων συνόλων δεδομένων και η βελτίωση της ανάλυσης κειμένου σε συνδυασμό με τη συλλογή προσωπικών δεδομένων έχουν γεννήσει αμέτρητες εφαρμογές AI.

Αυτές οι νέες εφαρμογές AI παρέχουν οφέλη στους πολίτες της Ευρωπαϊκής Ένωσης (ΕΕ). Ωστόσο, λόγω της εγγενούς πολυπλοκότητας και των απαιτήσεων σε τεχνικούς πόρους και γνώσεις, η AI μπορεί να υπονομεύσει την ικανότητά μας να ελέγξουμε την τεχνολογία και να θέσουμε σε κίνδυνο τις θεμελιώδεις ελευθερίες. Επομένως, η θέσπιση νέας νομοθεσίας για την τεχνητή νοημοσύνη είναι ένας σημαντικός στόχος.

Στο πλαίσιο μιας νέας νομοθεσίας, αυτό το άρθρο εξηγεί πώς η διάθεση εφαρμογών AI με άδειες Ελεύθερου Λογισμικού ανοίγει το δρόμο για περισσότερη προσιτότητα, διαφάνεια και δικαιοσύνη.

Τι είναι το Ελεύθερο Λογισμικό;

Το Ελεύθερο Λογισμικό δίνει τη δυνατότητα στους ανθρώπους να ελέγχουν την τεχνολογία παρέχοντας τέσσερις ελευθερίες σε κάθε χρήστη:

  1. Η ελευθερία χρήσης του λογισμικού για οποιονδήποτε σκοπό, χωρίς γεωγραφικούς περιορισμούς.
  2. Η ελευθερία μελέτης του λογισμικού
  3. Η ελευθερία να μοιράζεστε λογισμικό και να το αντιγράφετε χωρίς κόστος.
  4. Η ελευθερία να βελτιώσουμε το λογισμικό και να μοιραστούμε τις βελτιώσεις.

Αυτές οι ελευθερίες παρέχονται με την απελευθέρωση λογισμικού βάσει άδειας Ελεύθερου Λογισμικού, των οποίων οι όροι είναι συμβατοί με τις προαναφερθείσες ελευθερίες. Υπάρχουν πολλές άδειες χρήσης Ελεύθερου Λογισμικού με διαφορετικούς στόχους. Ένα λογισμικό μπορεί να έχει άδεια με περισσότερες από μία άδειες. Επειδή για να διανεμηθεί και να τροποποιηθεί ελεύθερα, μια εφαρμογή AI απαιτεί τον κώδικα εκπαίδευσης και τα δεδομένα, και τα δύο πρέπει να κυκλοφορήσουν με άδεια Ελεύθερου Λογισμικού για να θεωρηθεί ότι μια εφαρμογή AI είναι ελεύθερα διαθέσιμη.

Προσιτότητα

Η προσιτότητα για την AI σημαίνει ότι την καθιστά επαναχρησιμοποιήσιμη, έτσι ώστε ο καθένας να μπορεί να την εκτελεί, να την βελτιώνει και να τη χρησιμοποιεί για δικά του μέσα. Για να γίνει επαναχρησιμοποιήσιμη η AI, μπορεί να κυκλοφορήσει με άδεια Ελεύθερου Λογισμικού. Τα πλεονεκτήματα αυτής της προσέγγισης είναι πολλά.

Έχοντας ανοιχτές νομικές βάσεις, η Ελεύθερη Τεχνητή Νοημοσύνη ενισχύει την καινοτομία, διότι δεν χρειάζεται να αντιμετωπίσουμε τεχνητούς περιορισμούς που εμποδίζουν τους ανθρώπους να επαναχρησιμοποιήσουν την εργασία. Το να κάνουμε την AI ελεύθερη, επομένως, μας σώζει όλους από το να χρειαστεί να ανακαλύψουμε εκ νέου τον τροχό, κάνοντας τους ερευνητές και τους προγραμματιστές να μπορούν να επικεντρωθούν στη δημιουργία νέου, καλύτερου λογισμικού AI αντί να ξαναχτίζουν μπλοκ και να αναπαράγουν ξανά την προηγούμενη εργασία.

Εκτός από τη βελτίωση της αποτελεσματικότητας, με την ανταλλαγή εμπειριών, η Ελεύθερη Τεχνητή Νοημοσύνη μειώνει επίσης το κόστος ανάπτυξης εξοικονομώντας χρόνο και καταργώντας τα κόστη αδειών. Όλα αυτά βελτιώνουν την προσιτότητα της AI, που οδηγεί σε καλύτερες και πιο δημοκρατικές λύσεις καθώς όλοι μπορούν να συμμετέχουν.

Η επαναχρησιμοποίηση της AI διευκολύνει επίσης την κατασκευή εξειδικευμένων μοντέλων AI από πιο γενικά μοντέλα. Εάν ένα γενικό μοντέλο AI κυκλοφορεί ως Ελεύθερο Λογισμικό, αντί να εκπαιδεύσει ένα νέο μοντέλο από το μηδέν, θα μπορούσε κανείς να αξιοποιήσει το γενικό μοντέλο ως αφετηρία για μια συγκεκριμένη εργασία πρόβλεψης. Για παράδειγμα, θα μπορούσε κάποιος να χρησιμοποιήσει ένα γενικό μοντέλο computer vision [1,2] ως αφετηρία για τη διαχείριση δημόσιας υποδομής που απαιτεί συγκεκριμένες επεξεργασίες εικόνας. Ακριβώς όπως με την προσιτότητα γενικά, αυτή η προσέγγιση έχει ένα βασικό πλεονέκτημα: γενικά μοντέλα με πολλές παραμέτρους και εκπαιδευμένα σε μεγάλα σύνολα δεδομένων μπορεί να κάνουν την εργασία πιο εύκολη στην εκμάθηση. Αυτό καθιστά την AI πιο προσβάσιμη μειώνοντας το εμπόδιο στην είσοδο, διευκολύνοντας την επαναχρησιμοποίηση των εργασιών.

Ωστόσο, η χρήση του πηγαίου κώδικα που χρησιμοποιείται για την εκπαίδευση του AI και η ελεύθερη διάθεση των αντίστοιχων δεδομένων μερικές φορές δεν αρκεί για να είναι προσβάσιμο. Η τεχνητή νοημοσύνη απαιτεί τεράστιο όγκο δεδομένων για τον εντοπισμό προτύπων και συσχετισμών που οδηγούν σε σωστές προβλέψεις. Αντίθετα, η έλλειψη επαρκών δεδομένων μειώνει την ικανότητά του να κατανοεί τον κόσμο. Επιπλέον, τα μεγάλα σύνολα δεδομένων και η εγγενής πολυπλοκότητά τους τείνουν να κάνουν τα μοντέλα AI μεγάλα, καθιστώντας την προπόνησή τους χρονοβόρα και έχουν τεράστιες ανάγκες σε πόρους. Η πολυπλοκότητα στο χειρισμό των δεδομένων που απαιτούνται για την εκπαίδευση μοντέλων AI, σε συνδυασμό με τις γνώσεις που απαιτούνται για την ανάπτυξή τους και τη διαχείριση πόρων υπολογιστών απαιτούν πολλούς ανθρώπινους πόρους. Επομένως, μπορεί να είναι δύσκολο να ασκήσετε τις ελευθερίες που προσφέρει ένα Ελεύθερο AI, παρόλο που ο πηγαίος κώδικας εκπαίδευσης και τα δεδομένα του ενδέχεται να κυκλοφορήσουν ως Ελεύθερο Λογισμικό. Σε αυτές τις περιπτώσεις, η κυκλοφορία των εκπαιδευμένων μοντέλων AI ως Ελεύθερου Λογισμικού θα βελτιώσει σημαντικά την προσβασιμότητα.

Τέλος, θα πρέπει να σημειωθεί ότι, όπως και κάθε άλλη τεχνολογία, το να κάνεις την AI επαναχρησιμοποιήσιμη από όλους μπορεί δυνητικά να είναι επιβλαβές. Για παράδειγμα, η επαναχρησιμοποίηση ενός ανιχνευτή προσώπου που κυκλοφόρησε ως Ελεύθερο Λογισμικό ως μέρος ενός λογισμικού αναγνώρισης προσώπου μπορεί να προκαλέσει ζητήματα ανθρώπινων δικαιωμάτων. Ωστόσο, αυτό ισχύει ανεξάρτητα από την τεχνολογία που εμπλέκεται. Εάν μια περίπτωση χρήσης λογισμικού θεωρείται επιβλαβής, θα πρέπει επομένως να απαγορεύεται χωρίς ρητή απαγόρευση της τεχνολογίας AI.

Διαφάνεια

Η διαφάνεια της τεχνητής νοημοσύνης μπορεί να υποδιαιρεθεί σε διαφάνεια και ερμηνευσιμότητα. Σε αυτό το πλαίσιο, η διαφάνεια ορίζεται ως το δικαίωμα ενημέρωσης για το λογισμικό AI και η ερμηνευσιμότητα ορίζεται ως η ικανότητα κατανόησης του τρόπου επεξεργασίας του input, ώστε να μπορεί κανείς να προσδιορίσει τους παράγοντες που λαμβάνονται υπόψη για την πραγματοποίηση προβλέψεων και τη σχετική σημασία τους . Στην Ευρώπη, το δικαίωμα ενημέρωσης σχετικά με την απόφαση ενός αλγορίθμου παρέχεται από την αιτιολογική σκέψη 71 του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR) 2016/679 «Σε κάθε περίπτωση, τέτοια επεξεργασία πρέπει να υπόκειται σε κατάλληλες διασφαλίσεις, οι οποίες θα πρέπει να περιλαμβάνουν συγκεκριμένες πληροφορίες στο υποκείμενο των δεδομένων και το δικαίωμα να λαμβάνει ανθρώπινη παρέμβαση, να εκφράζει την άποψή του, να λαμβάνει εξήγηση της απόφασης που λαμβάνεται μετά από μια τέτοια αξιολόγηση και να αμφισβητεί την απόφαση«. Η διαφάνεια μπορεί επομένως να οριστεί ως η ικανότητα κατανόησης του τι οδήγησε στις προβλέψεις.

Η AI πρέπει να είναι διαφανής επειδή χρησιμοποιείται για κρίσιμα θέματα. Για παράδειγμα, χρησιμοποιείται για τον προσδιορισμό της πιστοληπτικής ικανότητας [3] , σε αυτοκινούμενα αυτοκίνητα [4] , στην προγνωστική αστυνόμευση [5] ή στην υγειονομική περίθαλψη [6] . Σε αυτά τα πλαίσια, η λήψη πληροφοριών σχετικά με τον τρόπο πραγματοποίησης των προβλέψεων είναι επομένως κρίσιμη και πρέπει να διατίθενται πληροφορίες σχετικά με τα δεδομένα που χρησιμοποιούνται και τον τρόπο επεξεργασίας τους από την AI. Επιπλέον, η εμπιστοσύνη και η υιοθέτηση της AI θα ήταν συνεπώς υψηλότερη. Επιπλέον, οι σύγχρονες τεχνολογίες τεχνητής νοημοσύνης, όπως η βαθιά μάθηση, δεν έχουν σχεδιαστεί να είναι διαφανείς, επειδή αποτελούνται από εκατομμύρια ή δισεκατομμύρια μεμονωμένων παραμέτρων [7], καθιστώντας τα πολύ περίπλοκα και δύσκολα κατανοητά. Αυτό που απαιτεί το Ελεύθερο Λογισμικό είναι να αναλύσει αυτήν την πολυπλοκότητα.

Υπάρχουν ήδη τεχνολογίες που κυκλοφορούν ως Ελεύθερο Λογισμικό για να κάνουν την AI πιο διαφανή. Για παράδειγμα, το Local Interpretable Model-Agnostic Explanations (LIME) [8] είναι ένα πακέτο λογισμικού που απλοποιεί ένα σύνθετο μοντέλο προβλέψεων προσομοιώνοντάς το με μια απλούστερη, πιο ερμηνεύσιμη έκδοση, επιτρέποντας έτσι στους χρήστες του AI να κατανοήσουν τις παραμέτρους που έπαιξαν ρόλο στην πρόβλεψη. Το σχήμα 1 απεικονίζει αυτήν τη διαδικασία συγκρίνοντας τις προβλέψεις που έγιναν από δύο διαφορετικά μοντέλα. Το Captum [9] είναι μια library που διατίθεται ως Ελεύθερο Λογισμικό και παρέχει έναν μηχανισμό απόδοσης που επιτρέπει σε κάποιον να κατανοήσει τη σχετική σημασία κάθε μεταβλητής εισόδου και κάθε παραμέτρου ενός μοντέλου βαθιάς μάθησης. Είναι επομένως εφικτό να κάνουμε την AI πιο διαφανή.

Από την σκοπιά του Ελεύθερου Λογισμικού – Ανοιχτά πρότυπα και άδειες
Σχήμα 1: παράδειγμα εξηγήσεων πρόβλεψης από το LIME [8]

Αν και μια ιδιόκτητη AI μπορεί να είναι διαφανής, το Ελεύθερο Λογισμικό διευκολύνει αυτήν τη διαδικασία κάνοντας τον έλεγχο και την επιθεώρηση ευκολότερη. Παρόλο που ορισμένα δεδομένα ενδέχεται να είναι πολύ ευαίσθητα για να απελευθερωθούν βάσει άδειας Ελεύθερου Λογισμικού, οι στατιστικές ιδιότητες των δεδομένων εξακολουθούν να δημοσιεύονται. Με το Ελεύθερο Λογισμικό, ο καθένας μπορεί να τρέξει το AI για να καταλάβει πώς φτιάχτηκε και να αναζητήσει τα δεδομένα που το πέρασαν. Ωστόσο, πρέπει να σημειωθεί ότι το ίδιο το μοντέλο AI, που αποτελείται από εκατομμύρια ή δισεκατομμύρια παραμέτρους, δεν προορίζεται να είναι διαφανές. Αλλά η προσομοίωση του μοντέλου AI με πολύ απλούστερη θα το καθιστούσε εύκολο να το ελέγξουμε.

Ένα άλλο πλεονέκτημα του Ελεύθερου Λογισμικού σε αυτό το πλαίσιο είναι ότι παραχωρώντας το δικαίωμα να βελτιώσει το λογισμικό AI και να μοιραστεί βελτιώσεις με άλλους, επιτρέπει σε όλους να βελτιώσουν τη διαφάνεια, αποτρέποντας έτσι την εξάρτηση από έναν προμηθευτή όπου κάποιος πρέπει να περιμένει έως ότου ο πάροχος λογισμικού κάνει την AI περισσότερο διαφανής.

Δικαιοσύνη

Στην τεχνητή νοημοσύνη (AI), η δικαιοσύνη ορίζεται με το να είναι απαλλαγμένη από επιβλαβείς διακρίσεις με βάση τα ευαίσθητα χαρακτηριστικά κάποιου, όπως φύλο, εθνικότητα, θρησκεία, αναπηρίες ή σεξουαλικό προσανατολισμό. Επειδή τα μοντέλα AI εκπαιδεύονται σε σύνολα δεδομένων που περιέχουν ανθρώπινες συμπεριφορές και δραστηριότητες που μπορεί να είναι άδικες και τα μοντέλα AI έχουν σχεδιαστεί για να αναγνωρίζουν και να αναπαράγουν υπάρχοντα μοτίβα, μπορούν να δημιουργήσουν επιβλαβείς διακρίσεις και παραβιάσεις των ανθρωπίνων δικαιωμάτων. Για παράδειγμα, [10] , ένας αλγόριθμος που αποδίδει ένα σκορ που δείχνει πόσο πιθανό κάποιος πρόκειται να επαναλάβει το έγκλημά του, βρέθηκε ότι ήταν άδικος απέναντι στους Αφροαμερικάνους [11], γιατί γι ‘αυτούς, το 44,9% των περιπτώσεων ήταν ψευδώς θετικά. Ο αλγόριθμος απέδωσε μια υψηλή αλλαγή υποτροπής, παρόλο που οι κατηγορούμενοι δεν υποτροπίασαν ποτέ. Αντίθετα, το 47,7% των περιπτώσεων για τους λευκούς χαρακτηρίστηκε ως χαμηλός κίνδυνος υποτροπής, παρά το γεγονός ότι εκ νέου υποτροπίασαν. Υπάρχει επίσης υποψία αδικίας στην υγειονομική περίθαλψη [12], όπου χρησιμοποιήθηκε ένας αλγόριθμος για την απόδοση βαθμολογιών κινδύνου σε ασθενείς, προσδιορίζοντας έτσι αυτούς που χρειάζονται πρόσθετους πόρους φροντίδας. Για να έχουν τους ίδιους κινδύνους με τους λευκούς, οι μαύροι έπρεπε να βρίσκονται σε χειρότερη κατάσταση υγείας, όσον αφορά τη σοβαρότητα της υπέρτασης, του διαβήτη, της αναιμίας, της κακής χοληστερόλης ή της νεφρικής ανεπάρκειας. Επομένως, υπάρχουν πραγματικά ζητήματα δικαιοσύνης στον αλγόριθμο AI. Επιπλέον, από νομική άποψη, ο έλεγχος για θέματα δικαιοσύνης απαιτείται από την αιτιολογική σκέψη 71 του ΓΚΠΔ, η οποία απαιτεί «να αποτρέψει, μεταξύ άλλων, επιπτώσεις που προκαλούν διακρίσεις σε φυσικά πρόσωπα λόγω φυλετικής ή εθνοτικής καταγωγής, πολιτικής άποψης, θρησκείας ή πεποιθήσεων , συμμετοχή σε συνδικαλιστική οργάνωση, γενετική κατάσταση ή κατάσταση υγείας ή σεξουαλικός προσανατολισμός ή επεξεργασία που έχει ως αποτέλεσμα μέτρα που έχουν τέτοιο αποτέλεσμα.Χρειαζόμαστε λοιπόν λύσεις για να εντοπίσουμε πιθανά ζητήματα δικαιοσύνης σε σύνολα δεδομένων στα οποία εκπαιδεύεται η AI και να το διορθώνουμε όταν συμβαίνει.

Για να ανιχνευθεί η δικαιοσύνη, πρέπει να ποσοτικοποιηθεί πρώτα. Υπάρχουν πολλοί τρόποι για τον καθορισμό της δικαιοσύνης για την τεχνητή νοημοσύνη, βάσει δύο κατηγοριών προσεγγίσεων. H πρώτη επιβεβαιώνει ότι τα άτομα που ομαδοποιούνται σύμφωνα με κάποια ευαίσθητα χαρακτηριστικά αντιμετωπίζονται με παρόμοιο τρόπο από τον αλγόριθμο, π.χ. όσον αφορά την ακρίβεια, το πραγματικό θετικό ποσοστό και το ψευδώς θετικό ποσοστό. Η δεύτερη προσέγγιση μετρά την αμεροληψία σε ατομικό επίπεδο διασφαλίζοντας ότι παρόμοια άτομα αντιμετωπίζονται παρόμοια από τον αλγόριθμο [13]. Πιο τυπικά, συγκρίνεται ένα μέτρο απόστασης μεταξύ δειγμάτων του συνόλου δεδομένων και ένα μέτρο απόστασης μεταξύ των προβλέψεων του αλγορίθμου για να διασφαλιστεί ότι η αναλογία τους είναι συνεπής. Ωστόσο, η ικανοποίηση της ομαδικής δικαιοσύνης και της ατομικής δικαιοσύνης ταυτόχρονα μπορεί να είναι αδύνατη [14].

Υπάρχουν τρεις κοινά χρησιμοποιούμενες μέθοδοι για τον μετριασμό της αδικίας, εάν εντοπιστούν:

  1. Κατάργηση των ευαίσθητων χαρακτηριστικών (π.χ. φύλο, εθνικότητα, θρησκεία κ.λπ.) από το σύνολο δεδομένων. Αυτή η προσέγγιση δεν λειτουργεί σε πραγματικό σενάριο επειδή η αφαίρεση του ευαίσθητου χαρακτηριστικού δεν αρκεί για να το καλύψει πλήρως, καθώς το ευαίσθητο χαρακτηριστικό συσχετίζεται συχνά με άλλα χαρακτηριστικά του συνόλου δεδομένων. Επομένως, δεν είναι αρκετή η κατάργησή της και η κατάργηση όλων των χαρακτηριστικών που σχετίζονται με αυτό οδηγεί σε απώλεια πολλών πληροφοριών.
  2. Βεβαίωση ότι το σύνολο δεδομένων έχει ίση αναπαράσταση των ατόμων εάν ομαδοποιούνται με ένα ευαίσθητο χαρακτηριστικό.
  3. Ταυτόχρονη βελτιστοποίηση του μοντέλου AI για ακρίβεια και δικαιοσύνη. Ενώ ο αλγόριθμος έχει εκπαιδευτεί σε ένα υπάρχον σύνολο δεδομένων που περιέχει αθέμιτες διακρίσεις, και οι δύο θεωρούν την ακρίβεια και την ορθότητα του [15] .

Εάν χρησιμοποιηθούν αυτές οι μέθοδοι, είναι αδύνατον να υπάρχει ένας απόλυτα ακριβής και δίκαιος αλγόριθμος, αλλά εάν η ακρίβεια ορίζεται σε ένα σύνολο δεδομένων που είναι γνωστό ότι περιέχει αθέμιτη μεταχείριση μιας συγκεκριμένης ομάδας, και μικρότερη ακρίβεια από την τέλεια μπορεί να θεωρηθεί αποδεκτή.

Επειδή μια AI που κυκλοφορεί ως Ελεύθερο Λογισμικό μπορεί να χρησιμοποιηθεί και να ελεγχθεί από όλους, η επαλήθευση εάν είναι απαλλαγμένη από δυνητικά επιβλαβείς διακρίσεις είναι ευκολότερο από ό, τι αν ήταν ιδιόκτητη. Επιπλέον, αυτό συνεργάζεται με τη διαφάνεια της τεχνητής νοημοσύνης (βλ. Ενότητα Διαφάνεια), καθώς η διαφανής AI διευκολύνει την κατανόηση των παραγόντων που λαμβάνονται υπόψη για την πραγματοποίηση προβλέψεων. Ενώ είναι απαραίτητο, η κυκλοφορία του AI ως Ελεύθερου Λογισμικού δεν την κάνει αυτομάτως και δίκαιη, αλλά διευκολύνει την αξιολόγηση και την επιβολή της δικαιοσύνης.

Συμπεράσματα

Σε αυτό το άρθρο, υπογραμμίσαμε πιθανά ζητήματα γύρω από τον εκδημοκρατισμό της τεχνητής νοημοσύνης (AI) και τις επιπτώσεις στα ανθρώπινα δικαιώματα. Πιθανές λύσεις Ελεύθερου Λογισμικού παρουσιάζονται για την αντιμετώπιση αυτών των ζητημάτων. Συγκεκριμένα, δείξαμε ότι η AI πρέπει να είναι προσιτή, διαφανής και δίκαια για να μπορεί να χρησιμοποιηθεί. Αν και δεν αποτελεί επαρκή λύση, η απελευθέρωση του AI με άδειες χρήσης Ελεύθερου Λογισμικού είναι απαραίτητη για την ευρεία χρήση της σε όλα τα συστήματα πληροφοριών μας, καθιστώντας την πιο ελεγχόμενη, αξιόπιστη και ασφαλή για όλους.

References

  • [1] K. He, X. Zhang, S. Ren, and J. Sun, “Deep Residual Learning for Image Recognition,” arXiv:1512.03385 [cs], Dec. 2015.
  • [2] K. Simonyan and A. Zisserman, “Very Deep Convolutional Networks for Large-Scale Image Recognition,” arXiv:1409.1556 [cs], Apr. 2015.
  • [3] X. Dastile, T. Celik, and M. Potsane, “Statistical and machine learning models in credit scoring: A systematic literature survey,” Applied Soft Computing, vol. 91, p. 106263, 2020, doi: 10.1016/j.asoc.2020.106263.
  • [4] C. Badue et al., “Self-Driving Cars: A Survey,” arXiv:1901.04407 [cs], Oct. 2019.
  • [5] D. Ensign, S. A. Friedler, S. Neville, C. Scheidegger, and S. Venkatasubramanian, “Runaway Feedback Loops in Predictive Policing,” in Conference on Fairness, Accountability and Transparency, Jan. 2018, pp. 160–171.
  • [6] N. Schwalbe and B. Wahl, “Artificial intelligence and the future of global health,” The Lancet, vol. 395, no. 10236, pp. 1579–1586, May 2020, doi: 10.1016/S0140-6736(20)30226-9.
  • [7] A. Canziani, A. Paszke, and E. Culurciello, “An Analysis of Deep Neural Network Models for Practical Applications,” arXiv:1605.07678 [cs], Apr. 2017.
  • [8] M. T. Ribeiro, S. Singh, and C. Guestrin, “»Why Should I Trust You?»: Explaining the Predictions of Any Classifier,” arXiv:1602.04938 [cs, stat], Aug. 2016.
  • [9] N. Kokhlikyan et al., Captum: A unified and generic model interpretability library for PyTorch. 2020.
  • [10] “Practitioners Guide to COMPAS.” Northpointe, Mar. 2015.
  • [11] L. K. Mattu Jeff Larson, “Machine Bias,” ProPublica. Mar. 2015.
  • [12] Z. Obermeyer, B. Powers, C. Vogeli, and S. Mullainathan, “Dissecting racial bias in an algorithm used to manage the health of populations,” Science (New York, N.Y.), vol. 366, no. 6464, pp. 447–453, Oct. 2019, doi: 10.1126/science.aax2342.
  • [13] C. Dwork, M. Hardt, T. Pitassi, O. Reingold, and R. Zemel, “Fairness Through Awareness,” arXiv:1104.3913 [cs], Nov. 2011.
  • [14] J. Kleinberg, S. Mullainathan, and M. Raghavan, “Inherent Trade-Offs in the Fair Determination of Risk Scores,” arXiv:1609.05807 [cs, stat], Nov. 2016.
  • [15] M. B. Zafar, I. Valera, M. G. Rodriguez, and K. P. Gummadi, “Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment,” Proceedings of the 26th International Conference on World Wide Web, pp. 1171–1180, Apr. 2017, doi: 10.1145/3038912.3052660.

Πηγή άρθρου: https://fsfe.org/freesoftware/artificial-intelligence.en.html



Source link

Χριστιάννα Καλλίρη

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *