Science

Ένα παιχνίδι Tetris μας δείχνει πως τα AI επηρεάζουν τις σχέσεις μας

Ένα πείραμα υπό την καθοδήγηση του Πανεπιστημίου Cornell, στο οποίο δύο άτομα έπαιζαν μια τροποποιημένη έκδοση του Tetris, αποκάλυψε ότι οι παίκτες που παίρνουν λιγότερες φορές την σειρά τους αντιλαμβάνονται τον άλλο παίκτη ως λιγότερο συμπαθή, ανεξάρτητα από το αν ένας άνθρωπος ή ένας αλγόριθμος κατανέμει την σειρά των παιχτών.

Οι περισσότερες μελέτες σχετικά με την αλγοριθμική δικαιοσύνη επικεντρώνονται στον ίδιο τον αλγόριθμο ή την απόφαση που παίρνει καθέ αυτού, αλλά οι ερευνητές προσπάθησαν να διερευνήσουν τις σχέσεις μεταξύ των ανθρώπων που επηρεάζονται από τις αποφάσεις.

“Αρχίζουμε να βλέπουμε πολλές καταστάσεις στις οποίες η τεχνητή νοημοσύνη λαμβάνει αποφάσεις σχετικά με το πώς πρέπει να κατανεμηθούν οι πόροι μεταξύ των ανθρώπων”, δήλωσε ο Malte Jung, αναπληρωτής καθηγητής της επιστήμης της πληροφορικής, η ομάδα του οποίου διεξήγαγε τη μελέτη. “Θέλουμε να καταλάβουμε πώς αυτό επηρεάζει τον τρόπο με τον οποίο οι άνθρωποι αντιλαμβάνονται ο ένας τον άλλον και συμπεριφέρονται ο ένας στον άλλον. Βλέπουμε όλο και περισσότερες ενδείξεις ότι οι μηχανές μπλέκουν με τον τρόπο που αλληλεπιδρούμε μεταξύ μας.

 width=

Σε μια προηγούμενη μελέτη, ένα ρομπότ επέλεξε σε ποιο άτομο θα δώσει ένα μπλοκ και μελέτησε τις αντιδράσεις του κάθε ατόμου στις αποφάσεις κατανομής της μηχανής.

“Παρατηρήσαμε ότι κάθε φορά που το ρομπότ φαινόταν να προτιμά ένα άτομο, το άλλο αναστατωνόταν”, δήλωσε ο Jung. “Θέλαμε να το μελετήσουμε αυτό περαιτέρω, γιατί σκεφτήκαμε ότι, καθώς οι μηχανές που παίρνουν αποφάσεις γίνονται όλο και περισσότερο μέρος του κόσμου -είτε πρόκειται για ρομπότ είτε για αλγόριθμο- τι αντίκτυπο έχει αυτό στον άνθρωπο;”

Χρησιμοποιώντας λογισμικό ανοιχτού κώδικα, ο Houston Claure — ο πρώτος συγγραφέας της μελέτης και μεταδιδακτορικός ερευνητής στο Πανεπιστήμιο Yale — ανέπτυξε μια έκδοση του Tetris για δύο παίκτες. Η εκδοχή του Claure, το Co-Tetris όπως ονομάστηκε, επιτρέπει σε δύο άτομα (ένα κάθε φορά) να συνεργαστούν για να ολοκληρώσουν κάθε γύρο.

Ένας “κατανομέας “ — είτε άνθρωπος είτε τεχνητή νοημοσύνη, η οποία διαβιβάζεται στους παίκτες — καθορίζει ποιος παίκτης θα πάρει σειρά. Οι Jung και Claure σχεδίασαν το πείραμά τους έτσι ώστε οι παίκτες να έχουν είτε το 90% των γύρων (η συνθήκη “περισσότερο”), είτε το 10% (“λιγότερο”) είτε το 50% (“ισότητα”).

Οι ερευνητές διαπίστωσαν, όπως ήταν αναμενόμενο, ότι εκείνοι που έπαιρναν λιγότερες φορές σειρά, είχαν έντονη επίγνωση ότι ο παρτενέρ τους έπαιρνε σημαντικά περισσότερες. Αλλά με έκπληξη διαπίστωσαν ότι τα συναισθήματα σχετικά με αυτό ήταν σε μεγάλο βαθμό τα ίδια, ανεξάρτητα από το αν ένας άνθρωπος ή μια τεχνητή νοημοσύνη έκανε την κατανομή.

 width=

Το αποτέλεσμα αυτών των αποφάσεων είναι αυτό που οι ερευνητές ονόμασαν “συμπεριφορά μηχανικής κατανομής” — παρόμοιο με το καθιερωμένο φαινόμενο της “συμπεριφοράς κατανομής πόρων” — και είναι η παρατηρήσιμη συμπεριφορά που παρουσιάζουν οι άνθρωποι με βάση τις αποφάσεις κατανομής. Ο Jung δήλωσε ότι η συμπεριφορά αυτή είναι “η ιδέα ότι υπάρχει αυτή η μοναδική συμπεριφορά που προκύπτει από μια μηχανή που λαμβάνει μια απόφαση σχετικά με το πώς κατανέμεται κάτι”.

Οι ερευνητές διαπίστωσαν επίσης ότι η δικαιοσύνη δεν οδηγούσε αυτόματα σε καλύτερο παιχνίδι και καλύτερες επιδόσεις. Στην πραγματικότητα, η ίση κατανομή των γύρων οδήγησε, κατά μέσο όρο, σε χειρότερη βαθμολογία από την άνιση κατανομή.

“Αν ένας ισχυρός παίκτης παίζει περισσότερο”, δήλωσε ο Claure, η ομάδα θα τα πάει καλύτερα. Ακόμα και αν ένα άτομο παίρνει το 90%, τελικά θα έχει καλύτερο αποτέλεσμα από όταν δύο μέτριοι παίκτες μοιράζονται τα μπλοκ”.

Leave a Reply

Your email address will not be published. Required fields are marked *

Don't Miss the News, Samurai!

Εγγράψου στο Newsletter του ggunews.gr για να μαθαίνεις πρώτος όλα τα καυτά νέα στον κόσμο του Internet και της τεχνολογίας!
Newsletter