Articles by "Τεχνητή Νοημοσύνη"
Εμφάνιση αναρτήσεων με ετικέτα Τεχνητή Νοημοσύνη. Εμφάνιση όλων των αναρτήσεων

Το ενδιαφέρον για την εξέλιξη της Τεχνητής Νοημοσύνης και οι ελπίδες για τις απίστευτες δυνατότητες που υπόσχεται, συμβαδίζουν με την ανησυχία γύρω από μία σειρά θεμάτων -μεταξύ αυτών και την ηθική διάσταση του ζητήματος. Τα ερωτήματα δεν διατυπώνονται μόνο από τον Τύπο και το ευρύ κοινό, αλλά πλέον από τους ίδιους τους τεχνικούς και ειδικούς επιστήμονες.

Τέσσερα από τα πλέον προβεβλημένα πρόσωπα της Silicon Valley, τέσσερις από τους «πεφωτισμένους» των νέων τεχνολογιών, ο CEO της Google, Sundar Pichai, ο Tim Cook της Apple, ο Έλον Μασκ της Tesla και ο Bill Gates, ιδρυτής της Microsoft, προειδοποιούν για τους μεγάλους κινδύνους της Τεχνητής Νοημοσύνης. Μαζί και ο διάσημος φυσικός Στίβεν Χόκινγκ, ο οποίος παραδέχεται ότι το μέλλον είναι αβέβαιο και ότι «η Τεχνητή Νοημοσύνη θα μπορούσε να είναι το μεγαλύτερο γεγονός στην ιστορία του πολιτισμού μας, ή το χειρότερο. Απλά δεν το ξέρουμε…»

Σαντάρ Πιτσάι: Η ανησυχία είναι δικαιολογημένη


Σε πρόσφατη συνέντευξη του στο MSNBC και το Recode, ο Sundar Pichai παρομοίασε την Τεχνητή Νοημοσύνη με τη φωτιά. Είπε ότι οι προγραμματιστές πρέπει να μάθουν να αξιοποιούν τα οφέλη της όπως έκαναν κάποτε οι άνθρωποι με τη φωτιά, σημειώνοντας ότι η Τεχνητή Νοημοσύνη δυνητικά ενέχει τον ίδιο κίνδυνο που έχει η φωτιά όταν γίνει πυρκαγιά.

«Η Τεχνητή Νοημοσύνη είναι εξαιρετικά σημαντική υπόθεση, αλλά πρέπει να είμαστε σε εγρήγορση. Η ανησυχία είναι δικαιολογημένη. Δεν φτάνει να δηλώνουμε αισιόδοξοι, οφείλουμε να είμαστε προσεκτικοί, παρά το γεγονός ότι συνδέεται και θα συνδεθεί με τις μεγαλύτερες εξελίξεις που έχει δει η ανθρωπότητα. Η φωτιά είναι αγαθό, αλλά μπορεί και να σκοτώσει. Κάθε φορά που βλέπω στις ειδήσεις ότι ακόμη ένας νέος άνθρωπος έχασε τη ζωή του από καρκίνο, σκέφτομαι ότι, η Τεχνητή Νοημοσύνη θα παίξει τον δικό της ρόλο στη λύση -και αυτού- του προβλήματος» είπε μεταξύ άλλων ο Sundar Pichai.

Η βρετανική εταιρεία DeepMind, θυγατρική της Google μπορεί να μαθαίνει με πιο φυσικό τρόπο, όπως ένας άνθρωπος, χρησιμοποιώντας τις προηγούμενες γνώσεις του για να λύσει τα επόμενα προβλήματα. Εξού και η DeepMind χαρακτηρίζεται από ειδικούς και πανεπιστημιακούς ως «κορυφαίος πρωτοπόρος» στην έρευνα για την τεχνητή Νοημοσύνη (η εταιρεία ανέπτυξε έναν αλγόριθμο ικανό να νικήσει πρωταθλητές του επιτραπέζιου παιχνιδιού στρατηγικής Go, ενώ συνεργάζεται ήδη με το βρετανικό Εθνικό Σύστημα Υγείας NHS). Ωστόσο, η πρόοδος που καταγράφει η DeepMind έχει προκαλέσει ερωτήματα. Χαρακτηριστική είναι η περίπτωση του Έλον Μασκ της Tesla -και δημιουργού της startup για την Τεχνητή Νοημοσύνη OpenAI- ο οποίος το 2016 έλεγε ότι από όλες τις εταιρείες που ασχολούνται με την Τεχνητή Νοημοσύνη, η περίπτωση της Google είναι η μόνη που τον ανησυχεί.

Σύμφωνα με το newsweek, παρά το γεγονός ότι όντως η DeepMind «οδηγεί» την έρευνα στο συγκεκριμένο πεδίο, είναι μία από τις εταιρείες που εγείρουν ανησυχίες. Πριν από λίγες ημέρες πάντως, η εταιρεία ανακοίνωσε ότι, στα σχέδια της είναι «να εμβαθύνει στα θέματα δεοντολογίας που συνδέονται με την Τεχνητή Νοημοσύνη».

Κουκ: Μόνο σε αρμονία με την ανθρωπότητα


O CEO της Apple, Tim Cook μιλώντας σε συνέδριο για το διαδίκτυο στην Κίνα, δήλωσε από την πλευρά του ότι δεν ανησυχεί για την Τεχνητή Νοημοσύνη αυτή καθαυτή, αλλά για τους ανθρώπους οι οποίοι σκέφτονται όπως οι μηχανές, προσθέτοντας ότι οι νέες τεχνολογίες θα μας ενδυναμώνουν, αρκεί να είναι σε αρμονία με την ανθρωπότητα στο σύνολό της. «Δεν ανησυχώ για τις μηχανές που σκέφτονται όπως οι άνθρωποι, ανησυχώ για τους ανθρώπους που σκέφτονται όπως οι μηχανές. Πρέπει να συνεργαστούμε για να συστήσουμε την τεχνολογία στην ανθρωπότητα», δήλωσε, υπογραμμίζοντας στη συνέχεια, τις πτυχές της καθημερινής ζωής που μέσω της Τεχνητής Νοημοσύνης θα αναβαθμιστούν και θα οδηγήσουν στην «ευημερία». Όπως είπε «εάν είναι ενσωματωμένες στην ανθρωπότητα οι τεχνολογίες μπορούν να αλλάξουν τον κόσμο προς το καλύτερο. Πιστεύουμε ότι η τεχνητή νοημοσύνη θα ξεδιπλώσει τις ικανότητες κάθε ανθρώπου και θα βοηθήσει σε σημαντικές ανακαλύψεις που θα μεταμορφώσουν τη ζωή μας, στην εκπαίδευση, στις υπηρεσίες υγείας και σε αμέτρητους άλλους τομείς».

Σε παλαιότερες δηλώσεις του o Ρώσος πρόεδρος Βλαντιμίρ Πούτιν είχε πει ότι η τεχνητή νοημοσύνη που επικεντρώνεται στην ανθρώπινη γνώση, είναι αυτό που το μέλλον επιφυλάσσει για τη Ρωσία και ολόκληρο τον κόσμο, χωρίς κανείς να μείνει πίσω «στο τέλος της γραμμής».

Έλον Μασκ: Θα μπορούσε να πυροδοτήσει έναν τρίτο παγκόσμιο



Απαντώντας τότε, ο Έλον Μασκ, σχετικά με το ποιός θα κυβερνήσει τον κόσμο είπε ότι η Τεχνητή Νοημοσύνη είναι η εν δυνάμει μεγαλύτερη υπαρκτή απειλή για το μέλλον της ανθρωπότητας, καθώς θα μπορούσε να πυροδοτήσει έναν τρίτο παγκόσμιο πόλεμο. Ο Μασκ διευκρίνισε ότι δεν τον ανησυχεί μόνο η προοπτική ενός «παγκόσμιου ηγέτη» που θα ξεκινήσει τον πόλεμο, αλλά η θέση ότι ένα προληπτικό «χτύπημα» είναι «το πιο πιθανό μονοπάτι προς τη νίκη».

Επανέλαβε μάλιστα ότι, η Τεχνητή Νοημοσύνη είναι «πολύ πιο επικίνδυνη» από τις «τολμηρές φιλοδοξίες της Βόρειας Κορέας για τα πυρηνικά». Οι φόβοι του Μασκ για την Τεχνητή Νοημοσύνη έχουν εκφραστεί με ένταση στις δημόσιες τοποθετήσεις του. Άλλωστε, ήταν ένας από τους 100 ειδικούς σε θέματα ρομποτικής οι οποίοι ζητούσαν με επιστολή τους προς τον ΟΗΕ την απαγόρευση των αυτόνομων θανατηφόρων όπλων, με άλλα λόγια, την απαγόρευση της χρήσης Τεχνητής Νοημοσύνης για τη διαχείριση όπλων.

Στη Διάσκεψη Κορυφής World Government Summit στο Ντουμπάι τον Φεβρουάριο του 2017, ο Μάσκ έθεσε το ζήτημα του «deep AI», πεδίο πολύ πιο ειδικό από τα αυτοκίνητα χωρίς οδηγό για παράδειγμα, σε αυτό που ονομάζεται «γενική τεχνητή νοημοσύνη», λέγοντας ότι «είναι πιο έξυπνη από τον εξυπνότερο άνθρωπο πάνω στη Γη» και την ίδια στιγμή, χαρακτηρίζοντας την ως «επικίνδυνη κατάσταση».

Χόκινγκ: Ισχυρά όπλα και νέοι τρόποι με τους οποίους οι λίγοι θα μπορούν να καταπιέζουν τους πολλούς



Ο διάσημος φυσικός Στίβεν Χόκινγκ μιλώντας στο συνέδριο τεχνολογίας Web Summit τον περασμένο Νοέμβριο στη Λισαβώνα, είπε ότι η Τεχνητή Νοημοσύνη είναι το «χειρότερο γεγονός στην ιστορία του πολιτισμού μας». Προειδοποίησε, σύμφωνα με το sputnik για τους πιθανούς κινδύνους από τους υπολογιστές και τις μηχανές, λέγοντας ότι μπορούν να «μιμηθούν την ανθρώπινη νοημοσύνη και να την υπερβούν» και παραδέχθηκε ότι, το μέλλον είναι αβέβαιο.

«Η δημιουργία μίας αποτελεσματικής Τεχνητής Νοημοσύνης θα μπορούσε να είναι το μεγαλύτερο γεγονός στην ιστορία του πολιτισμού μας, ή το χειρότερο, απλά δεν το ξέρουμε. Πρέπει να προετοιμαστούμε επαρκώς ώστε να είμαστε σε θέση να αποφύγουμε τους πιθανούς κινδύνους. Η Τεχνητή Νοημοσύνη φέρνει μαζί της κινδύνους, όπως ισχυρά αυτόνομα όπλα και νέους τρόπους με τους οποίους οι λίγοι θα μπορούν να καταπιέζουν τους πολλούς. Θα μπορούσε επίσης, να προκαλέσει μεγάλη αναστάτωση στην παγκόσμια οικονομία» είπε ο Χόκινγκ.

Μπιλ Γκέιτς: Να φορολογηθούν τα ρομπότ



Ο ιδρυτής της Microsoft, Μπιλ Γκέιτς απαντώντας σχετικά με τις κοινωνικές και οικονομικές συνέπειες της προόδου στην τεχνητή νοημοσύνη έχει πει ότι, δεδομένου ότι τα ρομπότ αναμένεται να κλέψουν τις ανθρώπινες θέσεις εργασίας, θα πρέπει επίσης να πληρώνουν φόρο εισοδήματος. Οι κυβερνήσεις θα έπρεπε να φορολογούν τη χρήση των ρομπότ, καθώς κατ’ αυτόν τον τρόπο θα μπορούσαν να επιβραδύνουν τους ρυθμούς αυτοματοποίησης της εργασίας, και να χρησιμοποιήσουν μέρος των εσόδων από τη φορολόγηση για την εκπαίδευση και ανάπτυξη θέσεων εργασίας για ανθρώπους, είχε πει πριν από μερικούς μήνες. «Ένας άνθρωπος που εργάζεται λαμβάνει μισθό 50.000 δολαρίων ετησίως και φορολογείται. Αν ένα ρομπότ πάρει τη θέση του για να κάνει την ίδια εργασία, πρέπει να φορολογήσουμε το ρομπότ σε παρόμοια κλίμακα».

Το «μεγάλο κόκκινο κουμπί»



Το newsweek αναφέρεται επίσης, στο προληπτικό μέτρο ασφαλείας, το περίφημο «Big Red Button», το οποίο έγινε γνωστό το 2016 και το οποίο δεν είναι άλλο, παρά μία «ασφάλεια διακοπής λειτουργίας», ένας τρόπος για να τσεκαριστεί ένα προβληματικό software και να «κατέβει ο διακόπτης». Όπως αναφέρεται στο σχετικό έγγραφο «η διακοπή λειτουργίας για λόγους ασφαλείας είναι χρήσιμη για να ανακτήσει κανείς τον έλεγχο ενός ρομπότ που δεν λειτουργεί σωστά και η δράση του μπορεί να έχει μη αναστρέψιμες συνέπειες».

«Ακόμη και στην περίπτωση κατά την οποία λειτουργεί σε πραγματικό χρόνο υπό την επίβλεψη ανθρώπου και πάλι ίσως κριθεί απαραίτητο για τον άνθρωπο - χειριστή να πατήσει το μεγάλο κόκκινο κουμπί προκειμένου να εμποδίσει τον ‘παράγοντα’ (ρομπότ) να συνεχίσει τη βλαπτική λειτουργία του και να τον επαναφέρει σε ασφαλή κατάσταση».

Πηγή: tvxs.gr

Μια εκπληκτική διάλεξη για την εξέλιξη της τεχνητής νοημοσύνης τα επόμενα «5 έως 50 χρόνια» έδωσε στη Θεσσαλονίκη ο γεννηθείς το 1981 Κωνσταντίνος Δασκαλάκης, καθηγητής της Επιστήμης των Υπολογιστών στο περίφημο ΜΙΤ.

Στην κατάμεστη αίθουσα τελετών του ΑΠΘ μοιράστηκε με τους παρευρισκόμενους τις εκτιμήσεις του, παραδεχόμενος ότι η πραγματικότητα ενδέχεται τελικά να διαψεύσει κάθε πρόβλεψη.

Μερικά από τα ερωτήματα που έθεσε:
Μπορούν τα ρομπότ να σώσουν το παγκόσμιο ασφαλιστικό σύστημα από την επαπειλούμενη κατάρρευση; Πόσο πιθανό είναι ένας ...καλοκάγαθος αλγόριθμος να εξελιχθεί σε ρατσιστή συνωμοσιολόγο μέσα σε λίγες ώρες;
Θα εναπόκειται στις ηθικές αξίες του ...software ενός αυτοοδηγούμενου αυτοκινήτου να αποφασίσει ποιος ζει και ποιος πεθαίνει, όταν το όχημα "συνειδητοποιεί" ότι επίκειται ένα σοβαρό αυτοκινητιστικό ατύχημα με εμπλοκή πεζών;
Πώς θα χρησιμοποιήσει τη στατιστική ένα ρομπότ, για να αποφασίσει σε ποιον υποψήφιο πελάτη θα δώσει η τράπεζα ένα δάνειο και ποιος θεωρείται αναξιόπιστος;
Είναι εφικτό μια ομάδα ανθρώπων να "πείσει" έναν αξιόπιστο αλγόριθμο αναγνώρισης εικόνας ότι μια καραμπίνα που έχει μπροστά του είναι ένα αθώο παιδικό παιχνίδι;

Η εποχή της τεχνητής νοημοσύνης έρχεται “φορτωμένη” με υποσχέσεις, προκλήσεις και κινδύνους. Και παρότι για να ανοίξει ο νέος αυτός οικονομικός κύκλος στην ιστορία της ανθρωπότητας απαιτείται ένα μεγάλο άλμα (η μετάβαση από την τεχνητή νοημοσύνη ειδικών εφαρμογών -που ήδη “βλέπουμε” να εφαρμόζεται σε αρκετές περιπτώσεις- στη γενική τεχνητή νοημοσύνη, η πλήρης ανάπτυξη της οποίας πιθανότατα θα απαιτήσει αρκετές δεκαετίες), μια νέα συναρπαστική εποχή ήδη ανατέλλει.


Φωτογραφίες: Konstantinos Tsakalidis / SOOC

Κατά τον Έλληνα καθηγητή, που μεταξύ άλλων έχει λάβει το βραβείο Kalai από την Διεθνή Ένωση Θεωρίας Παιγνίων και το βραβείο έρευνας από το ίδρυμα Giuseppe Sciacca του Βατικανού, το πιθανότερο είναι ότι σε πέντε χρόνια από σήμερα θα έχουμε έναν προσωπικό γραμματέα με τεχνητή νοημοσύνη και αυτο-οδηγούμενα αυτοκίνητα, ενώ σε 15 χρόνια η διεπαφή του ανθρώπινου εγκεφάλου με την τεχνολογία θα γίνει ενδεχομένως πολύ πιο άμεση και το όριο που διαχωρίζει το πού ξεκινά ο άνθρωπος και πού αρχίζει η μηχανή πιο δυσδιάκριτο.

"Μπορεί όλο αυτό να ξεφύγει από τον έλεγχο; Ναι, θα μπορούσε όπως έχει συμβεί και με άλλα πράγματα στο παρελθόν. Το να είμαστε όμως αρνητικοί απέναντι στο ποτάμι που έρχεται κατά πάνω μας δεν είναι εποικοδομητικό, αυτό που πρέπει να σκεφτόμαστε, είναι πώς θα το βάλουμε στη σωστή κατεύθυνση" σημείωσε, μιλώντας σε εκδήλωση που διοργάνωσαν τα Τμήματα Πληροφορικής και Μαθηματικών της Σχολής Θετικών Επιστημών του ΑΠΘ.



Wonderland, Pessiland, Stagnatia

Ο ίδιος ανέλυσε τρία σενάρια για την εξέλιξη της τεχνητής νοημοσύνης στα επόμενα "πέντε έως 50 χρόνια", επισημαίνοντας ότι αυτό που πιθανότατα θα επικρατήσει είναι η μίξη τους.

Με βάση το πρώτο (θετικό) σενάριο, με τίτλο "Wonderland", η αλληλεπίδραση ανθρώπων- μηχανών είναι θετική και ο πρώτος κερδίζει από την ύπαρξη των δεύτερων. Οι μηχανές κάνουν τις χειρονακτικές εργασίες, ο άνθρωπος έχει περισσότερο ελεύθερο χρόνο ή εκτελεί πνευματικές εργασίες και το ασφαλιστικό σύστημα σώζεται, αφού η έλλειψη νέων ανθρώπων που εργάζονται και καταβάλουν εισφορές αναπληρώνεται από την ύπαρξη των ρομπότ, που δεν χρειάζονται ασφάλιση ή σύνταξη. Προϋπόθεση για να επαληθευτεί αυτό το σενάριο είναι να κατακτήσει η επιστήμη τη γενική νοημοσύνη, δηλαδή η μηχανή να μάθει να χρησιμοποιεί τη διαίσθηση και την εμπειρία που αποκτά από μια νοητική λειτουργία και να τη μεταφέρει σε μια που δεν ξέρει καθόλου (πχ, όταν γνωρίζει να παίζει σκάκι, να μπορεί να χρησιμοποιήσει στρατηγική και στο πόκερ).
Βάσει του δεύτερου -αρνητικού- σεναρίου, με τίτλο "Pessiland", η επιστήμη κατακτά την γενική νοημοσύνη, αλλά αυτή δεν είναι προσβάσιμη σε όλους, αλλά μόνο σε εργαστήρια εταιρειών ή κρατών, που τη χρησιμοποιούν για ιμπεριαλιστική επιρροή. "Αν πάμε σε αυτή τηνΤο τρίτο σενάριο, με τίτλο "Stagnatia", για το οποίο ο δρ Δασκαλάκης επισήμανε ότι "έχει αρκετές πιθανότητες (επαλήθευσης)", είναι αυτό κατά το οποίο ενώ υπάρχουν ολοένα και περισσότερες εφαρμογές ειδικής τεχνητής νοημοσύνης (πχ αναγνώριση εικόνας και ήχου ή μετάφραση), η επιστήμη δεν καταφέρνει να κάνει το άλμα στη γενική τεχνητή νοημοσύνη και επικρατεί σχετική στασιμότητα.



Όταν ο αλγόριθμος "βλέπει" μια χελώνα σαν ...καραμπίνα

Κατά τον δρα Δασκαλάκη, σήμερα ένας από τους βασικούς προβληματισμούς της ανθρωπότητας είναι η αξιοπιστία της τεχνολογίας."Υπάρχουν μεγάλα θέματα αξιοπιστίας και ένας από τους λόγους είναι ότι όταν τα δεδομένα με τα οποία τροφοδοτείς τον αλγόριθμο είναι ελλιπή ή μη αντιπροσωπευτικά, μπορεί να οδηγήσουν σε λανθασμένες ή ελλιπείς νοητικές λειτουργίες. Πχ, έγινε γνωστό ότι ένα αυτοκίνητο Tesla έπεσε σε φορτηγό σταματημένο στην αριστερή λωρίδα. Γιατί συνέβη αυτό; Ίσως γιατί ποτέ στα δεδομένα που εισήχθησαν για να προπονηθεί ο αλγόριθμος στην αναγνώριση εικόνας δεν υπήρχε αυτοκίνητο σταματημένο στην αριστερή λωρίδα του δρόμου, επειδή αυτό σπάνια συμβαίνει. Ο αλγόριθμος θα επεξεργαστεί τα ελλιπή δεδομένα που τού δώσαμε και θα ενσωματώσει την έλλειψη" σημείωσε, ενώ πρόσθεσε ότι φοιτητές του ΜΙΤ επιτέθηκαν στον καλύτερο αλγόριθμο αναγνώρισης εικόνας και τον έκαναν να "πιστέψει" ότι μια τρισδιάστατη χελώνα τυπωμένη σε εκτυπωτή 3D ήταν ...καραμπίνα. "Δεν έχουμε τόσο αξιόπιστη Τεχνητή Νοημοσύνη σήμερα. Προσπαθούμε να φτιάξουμε τρόπους προστασίας αλγορίθμων από τέτοιου είδους επιθέσεις" επισήμανε.



Ποιος αποφασίζει ποιος θα χάσει τη ζωή του;

'Ενα άλλο θέμα, πρόσθεσε, έχει να κάνει με ηθικά διλήμματα. "Ενα κλασικό πρόβλημα είναι το εξής. Σκεφτείτε ότι φτιάχνουμε αυτοοδηγούμενα αυτοκίνητα που κινούνται μαζικά στους δρόμους. Αναπόφευκτα κάποιο από αυτά θα βρει τον εαυτό του σε φάση αναγνώρισης του γεγονότος ότι σε μερικά δευτερόλεπτα θα γίνει ένα αναπόφευκτο ατύχημα με εμπλοκή πεζών. Ο αλγόριθμος που οδηγεί καταλαβαίνει τότε ότι έχει δύο δυνατότητες: να πάει ευθεία και να σκοτώσει τους πεζούς ή να πάει αριστερά, να χτυπήσει στο στηθαίο και να σκοτώσει τους επιβαίνοντες. Δεν μπορεί να σώσει και τους δύο. Πώς θα πάρει την απόφαση; Ο αλγόριθμος μπορεί επίσης να καταλαβαίνει ότι οι πεζοί είναι ένα παιδάκι 8 χρονών, ο μπαμπάς του, 41, και ο σκύλος τους και οι επιβαίνοντες μια έγκυος γυναίκα 30 ετών και το αγοράκι της. Πώς εγώ που σχεδιάζω τον αλγόριθμο θα λάβω την απόφαση για το ποιος θα ζήσει";



Ο ρατσιστής αλγόριθμος

Κατά τον δρα Δασκαλάκη, η Τεχνητή Νοημοσύνη είναι σαν ένα μωρό. Το μωρό έρχεται στον κόσμο με γενετικά χαρακτηριστικά, αλλά εν πολλοίς είναι tabula rasa. Οι γονείς τού δίνουν δεδομένα και στόχους. Αν τα δεδομένα που λαμβάνει το μωρό περιέχουν ρατσιστικές απόψεις ή προκαταλήψεις ή θέσεις, αυτές τις θέσεις θα τις υιοθετήσει. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη, η οποία μαθαίνει από την αλληλεπίδραση με τους ανθρώπους.

Χαρακτηριστικό είναι το παράδειγμα ενός chat bot (σ.σ. ρομπότ που κάνει διάλογο μέσω κειμένου ή ήχου). Μια ομάδα χρηστών του επιτέθηκε, παρέχοντάς του ρατσιστικό και συνωμοσιολογικό περιεχόμενο. "Μέσα σε 17 ώρες έγινε τρελός ρατσιστής και συνωμοσιολόγος" σημείωσε ο καθηγητής.

Τίθενται επίσης ζητήματα αμεροληψίας, γιατί αν τα δεδομένα είναι ελλιπή, η τεχνητή νοημοσύνη θα υιοθετήσει στατιστικές που δεν είναι αντιπροσωπευτικές. Κι εδώ για παράδειγμα το ερώτημα είναι: έστω πως φτιάχνω τεχνολογία που αποφαίνεται αν κάποιος είναι άξιος λήψης δανείου, αλλά έχω ελλιπή στοιχεία για μια πληθυσμιακή ομάδα. Τι γίνεται τότε; "Πρέπει να προστατέψουμε την τεχνητή νοημοσύνη από το να κάνει τέτοια στατιστικά λάθη, αλλά το πρόβλημα είναι ότι η στατιστική είναι δύσκολη επιστήμη" σημείωσε.



Ποιος είναι ο δρ. Δασκαλάκης

Ο δρ Δασκαλάκης είναι απόφοιτος των Ηλεκτρολόγων του Ε.Μ.Π. Έκανε διδακτορικό στο Πανεπιστήμιο του Μπέρκλεϋ, και εργάστηκε ως μεταδιδακτορικός ερευνητής στη Microsoft. Η έρευνά του επικεντρώνεται στην θεωρητική πληροφορική και την διεπαφή της με τα Οικονομικά, την Στατιστική και την Τεχνητή Νοημοσύνη. Έχει μεταξύ άλλων τιμηθεί με το βραβείο της καλύτερης διδακτορικής διατριβής στην πληροφορική από τον διεθνή οργανισμό επιστήμης των υπολογιστών ACM, με το βραβείο Kalai από την διεθνή ένωση Θεωρίας Παιγνίων, το βραβείο εξαιρετικής δημοσίευσης από την διεθνή ένωση εφαρμοσμένων μαθηματικών SIAM, το Career Award από το Ίδρυμα Επιστημών της Αμερικής, το βραβείο Πληροφορικής του Ιδρύματος Sloan και την ερευνητική υποτροφία της Microsoft.

Πηγή: ΑΠΕ-ΜΠΕ