Inhaltsverzeichnis
Die meisten dieser Systeme funktionieren, indem sie das Gesicht einer Person mit einer Reihe von Gesichtern in einer großen Datenbank vergleichen. Trotz dieser Bedenken treiben andere Länder den raschen Einsatz in diesem Bereich voran. Durch ihr „Sharp Eyes“-Programm gleichen die chinesischen Strafverfolgungsbehörden Videobilder, Social-Media-Aktivitäten, Online-Käufe, Reiseaufzeichnungen und persönliche Identitäten in einer „Polizei-Cloud“ ab.
Derzeit herrscht beispielsweise ein Mangel an Datenwissenschaftlern, Informatikern, Ingenieuren, Programmierern und Plattformentwicklern. Dies sind Fähigkeiten, die Mangelware sind; Wenn unser Bildungssystem nicht mehr Menschen mit diesen Fähigkeiten hervorbringt, wird es die KI-Entwicklung einschränken. In einigen Sektoren, in denen es einen erkennbaren öffentlichen Nutzen gibt, können Regierungen die Zusammenarbeit erleichtern, indem sie eine Infrastruktur aufbauen, die Daten teilt. Dies ermöglicht es Forschern, Wirksamkeit und Wirksamkeit zu bewerten und Empfehlungen zu den besten medizinischen Ansätzen zu geben, ohne die Privatsphäre einzelner Patienten zu gefährden.
Zweitens glaubt er, dass diese Systeme offenlegen sollten, dass sie automatisierte Systeme und keine Menschen sind. Es ist sinnvoller, über die allgemeinen Ziele nachzudenken, die in der KI erwünscht sind, und Richtlinien zu erlassen, die sie voranbringen, im Gegensatz zu Regierungen, die versuchen, die „Black Boxes“ aufzubrechen und genau zu sehen, wie bestimmte Algorithmen funktionieren. Die Regulierung einzelner Algorithmen schränkt Innovationen ein und erschwert Unternehmen den Einsatz künstlicher Intelligenz.
- Der Aufbau anpassungsfähiger Systeme, die während der Arbeit lernen, hat das Potenzial, die Effektivität und Effizienz zu verbessern.
- Trotz ihres weit verbreiteten Mangels an Vertrautheit ist KI eine Technologie, die jeden Lebensbereich verändert.
- Ein KI-Analyst/Spezialist muss über einen guten Hintergrund in den Bereichen Programmierung, Systemanalyse und Computerstatistik verfügen.
- Dies führte zu philosophischen Argumenten über den Geist und die ethischen Konsequenzen der Schaffung künstlicher Wesen, die mit menschenähnlicher Intelligenz ausgestattet sind; Diese Fragen wurden bereits seit der Antike von Mythos, Fiktion und Philosophie untersucht.
- Jeder wird mit Datenbanken gefüttert, um zu lernen, was er ausgeben soll, wenn ihm während des Trainings bestimmte Daten präsentiert werden.
- Diese Art von Algorithmen kann komplexe Aufgaben bewältigen und Urteile fällen, die das replizieren oder übertreffen, was ein Mensch tun könnte.
Sie können kontinuierliche Funktionen und sogar digitale logische Operationen lernen. Neuronale Netze können als eine Art mathematische Optimierung angesehen werden – sie führen einen Gradientenabstieg auf einer mehrdimensionalen Topologie durch, die durch Training des Netzes erstellt wurde. Andere Lerntechniken für neuronale Netze sind Hebbian Learning ("fire together, wire together"), GMDH oder Competitive Learning. Zahlreiche akademische Forscher befürchteten, dass KI nicht mehr das ursprüngliche Ziel verfolgt, vielseitige, vollintelligente Maschinen zu schaffen. Ein Großteil der aktuellen Forschung befasst sich mit statistischer KI, die überwiegend zur Lösung spezifischer Probleme eingesetzt wird, sogar mit sehr erfolgreichen Techniken wie Deep Learning. Diese Sorge hat zum Teilgebiet der künstlichen allgemeinen Intelligenz (oder „AGI“) geführt, das in den 2010er Jahren mehrere gut finanzierte Institutionen hatte.
Projekte
Beispiele für maschinelles Lernen sind Bild- und Spracherkennung, Betrugsschutz und mehr. Ein konkretes Beispiel ist das Bilderkennungssystem, wenn Benutzer ein Foto auf Facebook hochladen. Das soziale Netzwerk kann das Bild analysieren und Gesichter erkennen, was zu Empfehlungen führt, verschiedene Freunde zu markieren. Mit der Zeit und Übung verfeinert das System diese Fähigkeit und lernt, genauere Empfehlungen zu geben. Die tragbaren Sensoren und Geräte, die in der Gesundheitsbranche verwendet werden, wenden auch Deep Learning an, um den Gesundheitszustand des Patienten zu beurteilen, einschließlich seines Blutzuckerspiegels, Blutdrucks und seiner Herzfrequenz.
Schon heute übertreffen Algorithmen Radiologen bei der Erkennung bösartiger Tumore und leiten Forscher bei der Zusammenstellung von Kohorten für kostspielige klinische Studien an. Aus verschiedenen Gründen glauben wir jedoch, dass es viele Jahre dauern wird, bis die KI den Menschen für breite medizinische Prozessdomänen ersetzt. In diesem Artikel beschreiben wir sowohl das Potenzial, das KI bietet, um Aspekte der Pflege zu automatisieren, als auch einige der Hindernisse für eine schnelle Implementierung von KI im Gesundheitswesen.
Führende Entwickler von KI-Modellen bieten zusätzlich zu diesen Cloud-Diensten auch hochmoderne KI-Modelle an. OpenAI verfügt über Dutzende von großen Sprachmodellen, die für Chat, NLP, Bildgenerierung und Codegenerierung optimiert sind und über Azure bereitgestellt werden. Nvidia hat einen Cloud-agnostischeren Ansatz verfolgt, indem es KI-Infrastruktur und grundlegende Modelle verkauft hat, die für Text, Bilder und medizinische Daten optimiert sind und über alle Cloud-Anbieter verfügbar sind.
Alles, was benötigt wird, sind Daten, die robust genug sind, damit Algorithmen nützliche Muster erkennen können. Daten können in Form von digitalen Informationen, Satellitenbildern, visuellen Informationen, Text oder unstrukturierten Daten vorliegen. Dies sind mathematische Modelle, deren Struktur und Funktionsweise lose auf der Verbindung zwischen Neuronen im menschlichen Gehirn basieren und die Art und Weise nachahmen, wie sie sich gegenseitig Signale senden.
Was Ist Künstliche Intelligenz Im Jahr 2023? Arten, Trends Und Zukunft Davon?
KI wird die Funktionsweise von Gesellschaft und Wirtschaft neu konfigurieren, und es muss ein „großes Ganzes“ darüber nachgedacht werden, was dies für Ethik, Governance und gesellschaftliche Auswirkungen bedeutet. Die Menschen werden die Fähigkeit brauchen, umfassend über viele Fragen nachzudenken und Wissen aus verschiedenen Bereichen zu integrieren. In den Vereinigten Staaten verwenden viele städtische Schulen Algorithmen für Einschreibungsentscheidungen, die auf einer Vielzahl von Überlegungen basieren, wie z. Elternpräferenzen, Nachbarschaftsqualitäten, Einkommensniveau und demografischer Hintergrund.
Nach Kritik an diesen Bestimmungen ließ der ehemalige Stadtrat James Vacca die Anforderungen zugunsten einer Task Force fallen, die diese Fragen untersucht. Ein Beispiel für neue Möglichkeiten, Schüler auf eine digitale Zukunft vorzubereiten, ist das Teacher Advisor-Programm von IBM, das die kostenlosen Online-Tools von Watson nutzt, um Lehrern dabei zu helfen, das neueste Wissen in den Unterricht zu bringen. Sie ermöglichen Lehrern, neue Unterrichtspläne in MINT- und Nicht-MINT-Bereichen zu entwickeln, relevante Lehrvideos zu finden und Schülern zu helfen, das Beste aus dem Klassenzimmer herauszuholen.58 Als solche sind sie Vorläufer neuer Bildungsumgebungen, die geschaffen werden müssen. In einer KI-Welt sind nicht nur technische Fähigkeiten erforderlich, sondern unter anderem Fähigkeiten des kritischen Denkens, der Zusammenarbeit, des Designs, der visuellen Anzeige von Informationen und des unabhängigen Denkens.
Die zweite Vision, die als konnektionistischer Ansatz bekannt ist, zielte darauf ab, Intelligenz durch Lernen zu erreichen. Befürworter dieses Ansatzes, allen voran Frank Rosenblatt, versuchten, Perceptron auf eine Weise zu verbinden, die von Verbindungen von Neuronen inspiriert war. James Manyika und andere haben die beiden Herangehensweisen an den Geist und das Gehirn verglichen. Manyika argumentiert, dass symbolische Ansätze den Drang nach künstlicher Intelligenz in dieser Zeit dominierten, teilweise aufgrund ihrer Verbindung zu intellektuellen Traditionen von Descartes, Boole, Gottlob Frege, Bertrand Russell und anderen. Konnektionistische Ansätze, die auf Kybernetik oder künstlichen neuronalen Netzen basieren, wurden in den Hintergrund gedrängt, haben aber in den letzten Jahrzehnten eine neue Bedeutung erlangt.
Das Potenzial Für Künstliche Intelligenz Im Gesundheitswesen
Computationalism argumentiert, dass die Beziehung zwischen Geist und Körper ähnlich oder identisch mit der Beziehung zwischen Software und Hardware ist und daher eine Lösung für das Geist-Körper-Problem sein kann. Diese philosophische Position wurde von der Arbeit von KI-Forschern und Kognitionswissenschaftlern in den 1960er Jahren inspiriert und ursprünglich von den Philosophen Jerry Fodor und Hilary Putnam vorgeschlagen. David Chalmers identifizierte zwei Probleme beim Verständnis des Geistes, die er die „schweren“ und „einfachen“ Probleme des Bewusstseins nannte.
2012 – Andrew Ng, der Gründer des Google Brain Deep Learning-Projekts, fütterte 10 Millionen YouTube-Videos mithilfe von Deep-Learning-Algorithmen in ein neuronales Netzwerk. Das neuronale Netzwerk lernte, eine Katze zu erkennen, ohne darüber informiert zu sein, was eine Katze ist, was den Beginn einer neuen Ära des Deep Learning und der neuronalen Netzwerke markierte. Drittens benötigen Deep-Learning-Algorithmen für die Bilderkennung „gekennzeichnete Daten“ – Millionen von Bildern von Patienten, die eine definitive Diagnose von Krebs, Knochenbruch oder anderen Pathologien erhalten haben.
Das Erreichen künstlicher allgemeiner Intelligenz erwies sich als schwer fassbar, nicht unmittelbar bevorstehend, behindert durch Einschränkungen in der Computerverarbeitung und im Speicher sowie durch die Komplexität des Problems. Regierungen und Unternehmen zogen sich von ihrer Unterstützung der KI-Forschung zurück, was zu einer Brachezeit von 1974 bis 1980 führte, die als erster „KI-Winter“ bekannt ist. Trotz potenzieller Risiken gibt es derzeit nur wenige Vorschriften für den Einsatz von KI-Tools, und wo Gesetze existieren, beziehen sie sich in der Regel indirekt auf KI. Wie bereits erwähnt, verlangen beispielsweise die US-amerikanischen Fair-Lending-Vorschriften von Finanzinstituten, potenziellen Kunden Kreditentscheidungen zu erläutern.
Solange diese Systeme wichtigen menschlichen Werten entsprechen, besteht nur ein geringes Risiko, dass KI abtrünnig wird oder Menschen gefährdet. Computer können absichtlich sein, während sie Informationen auf eine Weise analysieren, die Menschen erweitert oder ihnen hilft, auf einem höheren Niveau zu arbeiten. Wenn die Software jedoch schlecht konzipiert ist oder auf unvollständigen oder voreingenommenen Informationen basiert, kann sie die Menschheit gefährden oder vergangene Ungerechtigkeiten wiederholen. Alan Turing wird allgemein der Ursprung des Konzepts zugeschrieben, als er 1950 über „denkende Maschinen“ spekulierte, die auf der Ebene eines Menschen denken könnten. Sein bekannter „Turing-Test“ legt fest, dass Computer ebenso wie Menschen Denkrätsel lösen müssen, um als autonom „denkend“ gelten zu können. Es gab bereits eine Reihe von Fällen unfairer Behandlung im Zusammenhang mit historischen Daten, und es müssen Schritte unternommen werden, um sicherzustellen, dass sich dies nicht in der künstlichen Intelligenz durchsetzt.
Andere Argumente diskutieren die Ethik der künstlichen Intelligenz und ob intelligente Systeme wie Roboter mit den gleichen Rechten wie Menschen behandelt werden sollten. Die Technologie kann in vielen verschiedenen Sektoren und Industrien angewendet werden. KI wird in der Gesundheitsbranche getestet und eingesetzt, um Medikamente zu dosieren und verschiedene Behandlungen zu verteilen, die auf bestimmte Patienten zugeschnitten sind, und um chirurgische Eingriffe im Keynote Speaker Künstliche Intelligenz Operationssaal zu unterstützen.
Sie können Muster der Social-Media-Kommunikation studieren und sehen, wie Menschen aktuelle Ereignisse kommentieren oder darauf reagieren. Um Innovation mit grundlegenden menschlichen Werten in Einklang zu bringen, schlagen wir eine Reihe von Empfehlungen für die Weiterentwicklung von KI vor. In diesem Bericht diskutieren Darrell West und John Allen die Anwendung von KI in einer Vielzahl von Sektoren, gehen auf Probleme bei ihrer Entwicklung ein und geben Empfehlungen, wie man das Beste aus KI herausholt und gleichzeitig wichtige menschliche Werte schützt. Ein neuronales Netzwerk ist eine Reihe von Algorithmen, die versuchen, Beziehungen in einem Datensatz über einen Prozess zu identifizieren, der die Funktionsweise des menschlichen Gehirns nachahmt.