Ένα εργαλείο το οποίο θα αναλύει πώς και γιατί οι αλγόριθμοι τεχνητής νοημοσύνης καταλήγουν σε αποφάσεις σε πραγματικό χρόνο αναπτύσσει η ΙΒΜ.
Όπως αναφέρει το BBC, μεταξύ άλλων, το Fairness 360 Kit θα αναζητά επίσης ίχνη «προκαταλήψεων» στις τεχνητές νοημοσύνες και θα προτείνει σχετικές ρυθμίσεις και αλλαγές.
Το εργαλείο αυτό έχει προκύψει εξαιτίας των προβληματισμών πως οι προηγμένοι αλγόριθμοι που χρησιμοποιούνται όλο και περισσότερο από κολοσσούς του χώρου της τεχνολογίας δεν είναι πάντα «δίκαιοι» όσον αφορά στον τρόπο που καταλήγουν σε αποφάσεις: Για παράδειγμα, στο παρελθόν συστήματα αναγνώρισης εικόνας (image recognition) δεν ήταν σε θέση να αναγνωρίζουν πρόσωπα τα οποία δεν ανήκαν σε λευκούς. Τέτοιου είδους τάσεις/ «αντιλήψεις» θα μπορούσαν να αποτελέσουν σημαντικό πρόβλημα εφόσον εξαπλώνεται η χρήση τους σε όλο και περισσότερο τομείς- από τη δημόσια τάξη μέχρι τις ασφαλίσεις και τον έλεγχο της πληροφορίας που κυκλοφορεί online. Επίσης, ανησυχία προκαλεί το γεγονός πως, συχνά, οι αλγόριθμοι τεχνητής νοημοσύνης λειτουργούν εντός «μαύρων κουτιών», εννοώντας πως οι ιδιοκτήτες τους δεν είναι σε θέση να παρακολουθούν το πώς ακριβώς καταλήγουν στις αποφάσεις στις οποίες καταλήγουν.
Το λογισμικό της IBM θα είναι cloud-based, open source και θα μπορεί να συνεργάζεται με ένα αρκετά μεγάλο εύρος πλαισίων που χρησιμοποιούνται για τη δημιουργία αλγορίθμων. Οι χρήστες του θα είναι σε θέση να βλέπουν, μέσω μιας οπτικής απεικόνισης, πώς οι αλγόριθμοί τους λαμβάνουν αποφάσεις και ποιοι είναι οι παράγοντες που χρησιμοποιούνται προκειμένου να καταλήγουν στα τελικά συμπεράσματα. Ακόμη, θα παρακολουθείται σε βάθος χρόνου η ακρίβεια και οι επιδόσεις του μοντέλου, καθώς και το πόσο «δίκαιο» είναι.
Όπως σημειώνει το BBC, πάνω σε παρεμφερή εργαλεία δουλεύουν και άλλες μεγάλες εταιρείες του χώρου της τεχνολογίας: Ενδεικτικά, την προηγούμενη εβδομάδα, η Google λάνσαρε ένα εργαλείο «what-if», επίσης σχεδιασμένο με σκοπό να δώσει στους χρήστες τη δυνατότητα να εξετάζουν πώς τα μοντέλα machine learning τους λειτουργούν. Ωστόσο το εργαλείο αυτό της Google δε λειτουργεί σε πραγματικό χρόνο, μα τα δεδομένα μπορούν να χρησιμοποιηθούν για τη δημιουργία μιας εικόνας σε βάθος χρόνου. Επίσης, τον Μάιο είχε ανακοινώσει η Microsoft ότι δουλεύει πάνω σε ένα toolkit «εντοπισμού προκαταλήψεων», ενώ πάνω σε κάτι αντίστοιχο έχει πει πως δουλεύει και το Facebook.
Όπως αναφέρει το BBC, μεταξύ άλλων, το Fairness 360 Kit θα αναζητά επίσης ίχνη «προκαταλήψεων» στις τεχνητές νοημοσύνες και θα προτείνει σχετικές ρυθμίσεις και αλλαγές.
Το εργαλείο αυτό έχει προκύψει εξαιτίας των προβληματισμών πως οι προηγμένοι αλγόριθμοι που χρησιμοποιούνται όλο και περισσότερο από κολοσσούς του χώρου της τεχνολογίας δεν είναι πάντα «δίκαιοι» όσον αφορά στον τρόπο που καταλήγουν σε αποφάσεις: Για παράδειγμα, στο παρελθόν συστήματα αναγνώρισης εικόνας (image recognition) δεν ήταν σε θέση να αναγνωρίζουν πρόσωπα τα οποία δεν ανήκαν σε λευκούς. Τέτοιου είδους τάσεις/ «αντιλήψεις» θα μπορούσαν να αποτελέσουν σημαντικό πρόβλημα εφόσον εξαπλώνεται η χρήση τους σε όλο και περισσότερο τομείς- από τη δημόσια τάξη μέχρι τις ασφαλίσεις και τον έλεγχο της πληροφορίας που κυκλοφορεί online. Επίσης, ανησυχία προκαλεί το γεγονός πως, συχνά, οι αλγόριθμοι τεχνητής νοημοσύνης λειτουργούν εντός «μαύρων κουτιών», εννοώντας πως οι ιδιοκτήτες τους δεν είναι σε θέση να παρακολουθούν το πώς ακριβώς καταλήγουν στις αποφάσεις στις οποίες καταλήγουν.
Το λογισμικό της IBM θα είναι cloud-based, open source και θα μπορεί να συνεργάζεται με ένα αρκετά μεγάλο εύρος πλαισίων που χρησιμοποιούνται για τη δημιουργία αλγορίθμων. Οι χρήστες του θα είναι σε θέση να βλέπουν, μέσω μιας οπτικής απεικόνισης, πώς οι αλγόριθμοί τους λαμβάνουν αποφάσεις και ποιοι είναι οι παράγοντες που χρησιμοποιούνται προκειμένου να καταλήγουν στα τελικά συμπεράσματα. Ακόμη, θα παρακολουθείται σε βάθος χρόνου η ακρίβεια και οι επιδόσεις του μοντέλου, καθώς και το πόσο «δίκαιο» είναι.
Όπως σημειώνει το BBC, πάνω σε παρεμφερή εργαλεία δουλεύουν και άλλες μεγάλες εταιρείες του χώρου της τεχνολογίας: Ενδεικτικά, την προηγούμενη εβδομάδα, η Google λάνσαρε ένα εργαλείο «what-if», επίσης σχεδιασμένο με σκοπό να δώσει στους χρήστες τη δυνατότητα να εξετάζουν πώς τα μοντέλα machine learning τους λειτουργούν. Ωστόσο το εργαλείο αυτό της Google δε λειτουργεί σε πραγματικό χρόνο, μα τα δεδομένα μπορούν να χρησιμοποιηθούν για τη δημιουργία μιας εικόνας σε βάθος χρόνου. Επίσης, τον Μάιο είχε ανακοινώσει η Microsoft ότι δουλεύει πάνω σε ένα toolkit «εντοπισμού προκαταλήψεων», ενώ πάνω σε κάτι αντίστοιχο έχει πει πως δουλεύει και το Facebook.