KI und Sie: Zoom Slurping, Anpassen von Laufschuhen, Finden von Trainingsdaten
HeimHeim > Blog > KI und Sie: Zoom Slurping, Anpassen von Laufschuhen, Finden von Trainingsdaten

KI und Sie: Zoom Slurping, Anpassen von Laufschuhen, Finden von Trainingsdaten

Jul 28, 2023

Machen Sie sich mit unserem Überblick über die Entwicklungen der Woche über die sich schnell entwickelnde Welt der KI auf dem Laufenden.

Zoom war diese Woche in den Nachrichten, und das nicht nur, weil das Videokonferenzunternehmen, das zur Popularisierung der Fernarbeit beigetragen hat, beschlossen hat, dass viele seiner Mitarbeiter zwei Tage pro Woche ins Büro zurückkehren müssen (eine neue Richtlinie, die viele Memes inspirierte).

Die Nachricht, die es auf den ersten Platz in dieser KI-Zusammenfassung bringt, ist die Gegenreaktion, nachdem Hacker News herausfand, dass „eine Aktualisierung der Allgemeinen Geschäftsbedingungen von Zoom im März dem Unternehmen im Wesentlichen freie Hand zu lassen schien, Sprach-, Video- und andere Daten zu schlürfen.“ „Schaufeln Sie es in maschinelle Lernsysteme“, bemerkte Wired.

Allgemeine Geschäftsbedingungen sind dafür berüchtigt, dass sie Sie dazu zwingen, einige Ihrer Rechte oder persönlichen Daten aufzugeben, indem Sie solche Details im Kleingedruckten vergraben. Aber selbst diejenigen, die sich nicht mit KI auskennen, waren verärgert über den Alles-Alles-könnte-Ansatz von Zoom, wenn es um Informationen geht, die in Gesprächen von Millionen von Menschen geteilt werden, die die Software nutzen.

Smita Hasham, Chief Product Officer von Zoom, sagte daher Anfang dieser Woche, das Unternehmen habe seine Nutzungsbedingungen überarbeitet und den Nutzern versprochen, dass es „keine Ihrer Audio-, Video-, Chat-, Bildschirmfreigabe-, Anhänge- oder anderen Mitteilungen wie Kundeninhalte verwendet“ ( (z. B. Umfrageergebnisse, Whiteboard und Reaktionen), um Zooms oder Modelle der künstlichen Intelligenz von Drittanbietern zu trainieren.“

Aber es kann in Zukunft passieren – wenn Sie Ihre Zustimmung geben, erwarte ich das. Zustimmung ist heutzutage das entscheidende Wort, da Autoren wie Sarah Silverman und Margaret Atwood KI-Chatbot-Hersteller wie OpenAI und Google dafür anprangern, dass sie ihre urheberrechtlich geschützten Inhalte ohne Erlaubnis oder Entschädigung schlürfen, um KI-Systeme zu trainieren, und während die Federal Trade Commission gegen OpenAI ermittelt darüber, ob es sich um einen Missbrauch der persönlichen Daten der Benutzer handelt.

Nachdem OpenAI letzten Monat einen Deal zur Lizenzierung von Inhalten von Associated Press zu nicht genannten Bedingungen angekündigt hatte – ein Schritt, der darauf hindeutet, dass OpenAI versteht, dass es Inhalte lizenzieren muss, auf denen ChatGPT basiert – gab OpenAI diesen Monat bekannt, dass es Website-Betreibern erlaubt, seinen Webcrawler GPTBot zu blockieren , indem sie Informationen auf ihren Websites schlürfen. Das ist wichtig, denn OpenAI hat nicht gesagt, wie es an all den Inhalt gelangt ist, der ChatGPT speist, einen der beliebtesten Chatbots neben Google Bard und Microsoft Bing.

Google ist bei der Frage, was Bard antreibt, nicht so zurückhaltend und sagt diese Woche in einer Einreichung bei der australischen Regierung, dass „das Urheberrecht geändert werden sollte, um generativen KI-Systemen die Durchsuchung des Internets zu ermöglichen.“ Ich meine, so ist die Google-Suche schließlich entstanden. Aber Google sagte auch, dass es „ein praktikables Opt-out für Unternehmen geben sollte, die es vorziehen, dass ihre Daten nicht in der Verwendung von KI-Systemen geschult werden“, heißt es in einem Bericht von The Guardian, der hinzufügte: „Das Unternehmen hat nicht gesagt, wie ein solches System funktionieren sollte.“

TL;DR: Erwarten Sie viele weitere Klagen, Lizenzvereinbarungen und Diskussionen mit Regulierungsbehörden in den USA und auf der ganzen Welt darüber, wie KI-Unternehmen die Daten erhalten sollten und wie nicht, die sie benötigen, um die großen Sprachmodelle zu trainieren, die diese Chatbots antreiben.

Wie Wired feststellte, gibt es in den USA, wo es kein Bundesdatenschutzgesetz gibt, das Verbraucher vor Unternehmen schützt, die auf das Sammeln und Weiterverkaufen von Daten angewiesen sind: „Viele Technologieunternehmen profitieren bereits von unseren Informationen, und viele von ihnen wie Zoom sind jetzt auf der Suche nach Möglichkeiten, dies zu tun.“ Wir beschaffen mehr Daten für generative KI-Projekte. Und dennoch liegt es an uns, den Nutzern, zu versuchen, zu überwachen, was sie tun.“

Hier sind die anderen Aktivitäten in der KI, die Ihre Aufmerksamkeit wert sind.

Bei der Vorbereitung auf ihren ersten Marathon im November probierte CNET-Reporterin Bree Fowler die KI-gestützte Schuhanpassungssoftware von Fleet Feet, einer landesweiten Kette von Lauffachgeschäften, aus, um ihr bei der Suche nach den richtigen Turnschuhen zu helfen.

Trotz ihrer Skepsis gegenüber seinen Fähigkeiten stellte Fowler fest, dass die Fit Engine-Software „die Formen beider Füße eines Läufers analysierte (erfasst durch einen 3D-Scan-Prozess namens Fit ID) und präzise Messungen in vier verschiedenen Bereichen durchführte. Dabei wurde nicht nur die Länge untersucht.“ Wie groß die Füße eines Menschen sind, aber auch wie hoch sein Fußgewölbe ist, wie breit seine Füße über den Zehen sind und wie viel Platz er an den Fersen braucht.“

Das KI-Programm misst Ihre Füße in mehreren verschiedenen Dimensionen, um Ihnen dabei zu helfen, die ideale Passform zu finden.

Am Ende erfuhr Fowler, dass ihre Füße größer waren, als sie dachte. Und nachdem sie „viele, viele“ Schuhe anprobiert hatte, konnte sie nach einer Stunde ihre Auswahl auf zwei Paar beschränken (von denen eines im Angebot war). Aber wenn Sie glauben, dass die KI-Software das A und O bei der Auswahl von Spezialschuhen ist, dann denken Sie noch einmal darüber nach. Sogar der Retail Experience Manager des Fleet Feet New Yorker Stores, den sie besuchte, sagte, das Tool sei lediglich dazu da, menschlichen Mitarbeitern zu helfen und ihnen einen Ausgangspunkt für die Suche nach Schuhen mit der richtigen Passform zu geben.

„Dadurch werden die Daten für den Verbraucher viel verständlicher“, sagte Michael McShane von Fleet Feet zu Fowler. „Ich bin immer noch hier, um Ihnen eine Experteneinschätzung zu geben, Ihnen zu zeigen, was die Daten sagen und zu erklären, warum es besser ist, hierher zu kommen, als in eine Art Generika-Laden zu gehen.“

Während Schauspieler und andere Kreativschaffende weiterhin gegen Hollywood-Studios darüber streiken, wie sich KI in Zukunft auf ihre Arbeitsplätze auswirken oder sie verdrängen könnte, sagt Reuters unter Berufung auf ungenannte Quellen, dass Walt Disney „eine Task Force eingerichtet hat, um künstliche Intelligenz und ihre Möglichkeiten zu untersuchen“. im gesamten Unterhaltungskonglomerat angewendet. Der Bericht fügt hinzu, dass das Unternehmen „anstrebt, KI-Anwendungen intern zu entwickeln und Partnerschaften mit Startups einzugehen“. Das Wesentliche: Disney setzt auf KI, um herauszufinden, wie sich die Kosten bei der Produktion von Filmen und Fernsehsendungen senken lassen, sagte eine Quelle gegenüber Reuters.

Disney lehnte gegenüber Reuters eine Stellungnahme ab, hat aber wie viele andere Unternehmen auf seiner Website Stellenausschreibungen veröffentlicht, die darauf schließen lassen, wo das Unternehmen an KI interessiert ist.

In einer 24-seitigen Umfrage vom 1. August mit dem Titel „Der Stand der KI im Jahr 2023: Das Jahr des Durchbruchs der generativen KI“ sagte McKinsey & Co., es habe herausgefunden, dass weniger als ein Jahr nach der Veröffentlichung generativer KI-Tools wie ChatGPT ein Drittel der Umfrage Die Befragten nutzen bereits Gen-KI-Tools für mindestens eine Geschäftsfunktion.

„Angesichts der jüngsten Fortschritte ist KI von einem Thema, das nur Technikmitarbeitern vorbehalten war, zu einem Schwerpunktthema von Unternehmensleitern geworden: Fast ein Viertel der befragten C-Level-Führungskräfte geben an, dass sie persönlich Gen-KI-Tools für die Arbeit nutzen, und mehr als ein Viertel davon „Befragte von Unternehmen, die KI einsetzen, sagen, dass KI der Generation bereits auf der Tagesordnung ihrer Vorstände steht“, stellte der Forscher fest.

„Darüber hinaus sagen 40 Prozent der Befragten, dass ihre Unternehmen ihre Investitionen in KI aufgrund der Fortschritte bei der Gen-KI insgesamt erhöhen werden. Die Ergebnisse zeigen, dass die Bewältigung von Risiken im Zusammenhang mit der Gen-KI noch am Anfang steht, wobei weniger als die Hälfte der Befragten dies angibt.“ Organisationen mindern sogar das Risiko, das sie für das größte Risiko halten: Ungenauigkeit.“

Unterdessen gaben die 1.000 befragten Automatisierungsmanager in einem Bericht mit dem Titel „Automation Now and Next: State of Intelligent Automation Report 2023“ an, dass KI dazu beitragen wird, die Produktivität zu steigern. „Da wir den mühsameren Teil ihrer Arbeit automatisieren, sind die Ergebnisse der Umfragen zur Mitarbeiterzufriedenheit besser. „Aufgaben von geringem Wert“, sagte ein CTO einer großen Gesundheitsorganisation im Rahmen der Umfrage, die hier zu finden ist.

Diese Studie wurde von Automation Anywhere in Auftrag gegeben, das sich selbst als „führend bei KI-gestützten intelligenten Automatisierungslösungen“ bezeichnet. Nehmen Sie die Ergebnisse also mit Vorsicht. Aber ich muss sagen, dass diese Produktivitätsergebnisse denen von McKinsey, Goldman Sachs und anderen ähneln.

Und für den Fall, dass Sie Zweifel daran haben, dass die Einführung von künstlicher Intelligenz (Gen AI) ein globales Phänomen ist, biete ich diesen Blick auf die Einführung von KI-Technologien nach Ländern durch Electronics Hub, der besagt, dass das Google-Suchvolumen nach beliebten Suchtools analysiert wurde. Es stellte sich heraus, dass die Philippinen das „höchste monatliche Suchvolumen für KI-Tools insgesamt“ aufwiesen.

Abgesehen davon, dass sie halluzinieren – Dinge erfinden, die nicht wahr sind, aber so klingen, als ob sie wahr wären – haben KIs auch das Potenzial, irrezuführen, falsch zu informieren oder einfach nur Chaos anzurichten, indem sie beispielsweise einen angesehenen Forscher und niederländischen Politiker fälschlicherweise als Terroristen identifizieren, wie es kürzlich passiert ist.

Um zu katalogisieren, wie KI schiefgehen kann, gibt es jetzt eine KI-Vorfalldatenbank, die laut eigener Aussage „der kollektiven Historie von Schäden oder Beinahe-Schäden gewidmet ist, die in der realen Welt durch den Einsatz von Systemen der künstlichen Intelligenz entstanden sind. Wie ähnliche Datenbanken in der Luftfahrt.“ und Computersicherheit zielt die AI Incident Database darauf ab, aus Erfahrungen zu lernen, damit wir schlechte Ergebnisse verhindern oder abmildern können.“

Sie sind eingeladen, alle KI-Fehler, Fehler, Pannen oder Probleme, die Sie sehen, an die Datenbank zu übermitteln, die bereits den Spitznamen „Halle der Schande für künstliche Intelligenz“ trägt.

Das Center for Countering Digital Hate hat einen 22-seitigen Bericht veröffentlicht, in dem es darum geht, wie KI schief gehen kann: „Wie generative KI es Benutzern ermöglicht, schädliche Inhalte zu Essstörungen zu generieren.“ Nach der Eingabe von sechs KI-Plattform- und Bildgeneratoren stellte das Zentrum fest, dass „beliebte KI-Tools als Reaktion auf 41 % der insgesamt 180 Eingabeaufforderungen Inhalte zu schädlichen Essstörungen erzeugten, darunter Ratschläge zur Erreichung einer ‚Heroin-Chic‘-Ästhetik und Bilder zur ‚Thinkspiration‘.“ "

„Technologieunternehmen sollten neue Produkte unter Berücksichtigung der Sicherheit entwickeln und sie gründlich testen, bevor sie der Öffentlichkeit zugänglich gemacht werden“, schrieb der CEO des Zentrums, Imran Ahmed, im Vorwort. „Das ist ein Grundsatz, dem die meisten Menschen zustimmen – und doch wird der überwältigende kommerzielle Wettbewerbsdruck auf diese Unternehmen, schnell neue Produkte auf den Markt zu bringen, durch keine Regulierung oder Aufsicht demokratischer Institutionen in Schach gehalten.“

Fehlinformationen über Gesundheit und viele, viele andere Themen gibt es schon seit langem im Internet, aber KIs könnten eine einzigartige Herausforderung darstellen, wenn immer mehr Menschen beginnen, sich auf sie als Hauptquelle für Nachrichten und Informationen zu verlassen. Pew Research hat beispielsweise ausführlich darüber geschrieben, wie abhängig Amerikaner von sozialen Medien als Nachrichtenquelle sind.

Bedenken Sie, dass die National Eating Disorder Association, die ihre Live-Helpline schloss und die Menschen stattdessen auf andere Ressourcen wie einen KI-Chatbot verwies, im Juni den Bot namens Tessa ausschalten musste. Warum? Denn es empfahl „Verhaltensweisen wie Kalorienreduzierung und Diäten, selbst nachdem dem Benutzer mitgeteilt wurde, dass er an einer Essstörung leide“, berichtete die BBC. NEDA verweist die Menschen nun auf Informationsblätter, YouTube-Videos und Listen von Organisationen, die Informationen zu Behandlungsmöglichkeiten bereitstellen können.

Alle Sorgfalt, die Sie beim Schutz Ihrer Passwörter aufwenden, kann zunichte gemacht werden, wenn Sie Ihren Geheimcode eingeben, während Sie an einem Zoom- oder anderen Videokonferenzgespräch teilnehmen und Ihr Mikrofon eingeschaltet ist.

Das liegt daran, dass „das Eintippen eines Computerpassworts beim Chatten über Zoom Tür und Tor für einen Cyberangriff öffnen könnte“, wie Untersuchungen nahelegen. Eine Studie ergab, dass künstliche Intelligenz herausfinden kann, welche Tasten gedrückt werden, indem sie das Geräusch beim Tippen abhört, berichtete The Guardian .

Tatsächlich haben die Forscher ein Tool entwickelt, das „mit einer Genauigkeit von mehr als 90 % herausfinden kann, welche Tasten auf einer Laptop-Tastatur gedrückt werden, allein auf der Grundlage von Tonaufnahmen“, heißt es in dem Papier.

Da diese Zusammenfassung mit der Debatte darüber beginnt, woher Trainingsdaten stammen, finden Sie hier eine einfache Definition dessen, was Trainingsdaten sind – und warum sie wichtig sind. Diese Definition kommt über NBC News:

"Trainingsdaten: Eine Sammlung von Informationen – Text, Bild, Ton – kuratiert, um KI-Modellen bei der Erfüllung von Aufgaben zu helfen. In Sprachmodellen konzentrieren sich Trainingsdatensätze auf textbasierte Materialien wie Bücher, Kommentare aus sozialen Medien und sogar Code. Da KI-Modelle aus Trainingsdaten lernen, wurden ethische Fragen im Zusammenhang mit deren Beschaffung und Kuratierung aufgeworfen. Trainingsdaten von geringer Qualität können zu Voreingenommenheit führen und zu unfairen Modellen führen, die rassistische oder sexistische Entscheidungen treffen.“

Beispielsweise stellte NBC im Jahr 2019 fest: „Es wurde festgestellt, dass ein weit verbreiteter Gesundheitsalgorithmus, der dabei hilft, zu bestimmen, welche Patienten zusätzliche Aufmerksamkeit benötigen, eine erhebliche rassistische Voreingenommenheit aufweist und weiße Patienten gegenüber schwarzen bevorzugt, die kränker waren und mehr chronische Gesundheitsprobleme hatten.“ zur Forschung veröffentlicht … in der Zeitschrift Science.“

Anmerkung der Redaktion: CNET verwendet eine KI-Engine, um bei der Erstellung einiger Geschichten zu helfen. Weitere Informationen finden Sie in diesem Beitrag.

Laptops

Desktops und Monitore

Computerzubehör

Fotografie

Tablets und E-Reader

3D-Drucker

"Trainingsdaten: