banner

Blog

Aug 07, 2023

KI wird die Menschheit (noch) nicht auslöschen

Michael Calore Lauren Goode

Die Idee, dass maschinelle Intelligenz eines Tages die Welt erobern wird, ist seit langem ein fester Bestandteil der Science-Fiction. Aber angesichts der rasanten Fortschritte bei Tools für künstliche Intelligenz auf Verbraucherebene ist die Angst in den letzten Monaten so realitätsnah geworden wie nie zuvor. Die Begeisterung für generative KI hat gleichermaßen Aufregung und Besorgnis geweckt und viele Menschen unsicher gemacht, wohin die Zukunft dieser offensichtlich leistungsstarken, aber noch jungen Technologie führen wird. Diese Woche veröffentlichte beispielsweise die gemeinnützige Gruppe Center for AI Safety eine kurze Erklärung, in der sie warnte, dass die Gesellschaft KI als existenzielle Bedrohung genauso ernst nehmen sollte wie Atomkriege und Pandemien.

Diese Woche sprechen wir im Gadget Lab mit Will Knight, dem leitenden Autor von WIRED, darüber, wie gefährlich KI wirklich ist und welche Leitplanken wir aufstellen können, um die Roboterapokalypse zu verhindern.

Lesen Sie Wills Geschichte über die Experten, die befürchten, dass KI eine existenzielle Bedrohung für die Menschheit darstellt. Lesen Sie die gesamte Berichterstattung von WIRED über KI.

Will empfiehlt den Roman „Antimaterie Blues“ von Edward Ashton. Mike empfiehlt, Ihre Lebensmittel mit Bee's Wrap statt mit Einweg-Plastikprodukten aufzubewahren. Lauren empfiehlt den Succession-Podcast von HBO, moderiert von Kara Swisher.

Will Knight ist auf Twitter unter @willknight zu finden. Lauren Goode ist @LaurenGoode. Michael Calore ist @snackfight. Bling die Haupt-Hotline bei @GadgetLab. Die Show wird von Boone Ashworth (@booneashworth) produziert. Unsere Titelmusik stammt von Solar Keys.

Sie können den Podcast dieser Woche jederzeit über den Audioplayer auf dieser Seite anhören. Wenn Sie sich jedoch kostenlos anmelden möchten, um alle Episoden zu erhalten, gehen Sie wie folgt vor:

Wenn Sie ein iPhone oder iPad verwenden, öffnen Sie die App „Podcasts“ oder tippen Sie einfach auf diesen Link. Sie können auch eine App wie Overcast oder Pocket Casts herunterladen und nach Gadget Lab suchen. Wenn Sie Android verwenden, können Sie uns in der Google Podcasts-App finden, indem Sie einfach hier tippen. Wir sind auch auf Spotify. Und falls Sie es wirklich brauchen, hier ist der RSS-Feed.

Lauren Goode: Mike.

Michael Heat: Lauren.

Lauren Goode: Ich dachte, wir sollten heute über unser eigenes Aussterben sprechen.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Michael Heat: Du meinst als Journalisten oder Podcaster oder als Menschen?

Lauren Goode: Vielleicht beide.

Michael Heat: Großartig.

Lauren Goode : Ja. Ja. Es ist ein weiterer Podcast über KI, aber ich denke, dass die Leute diesen wirklich hören wollen.

Michael Heat: Darf ich also fragen, wann wir den Leuten etwas zum Anhören geben werden, das tatsächlich Hoffnung macht?

Lauren Goode: Nun, eigentlich denke ich, dass das auch Teil der Show ist.

Michael Heat: Okay, großartig.

Lauren Goode: Also lasst uns loslegen.

[Gadget Lab-Intro-Themenmusik wird abgespielt]

Lauren Goode : Hallo allerseits. Willkommen im Gadget Lab. Ich bin Lauren Goode. Ich bin leitender Autor bei WIRED.

Michael Heat : Und ich bin Michael Calore. Ich bin leitender Redakteur bei WIRED.

Lauren Goode : Und heute kommt unser Kollege Will Knight aus Cambridge, Massachusetts zu uns. Will, es ist großartig, dich wieder im Gadget Lab zu haben.

Will Knight : Hallo. Es ist toll, zurück zu sein.

Lauren Goode : Eines Tages, Will, werden wir dich kontaktieren und einfach sagen: „Möchtest du über Katzen-Gadgets oder so etwas reden?“ Aber im Moment befinden Sie sich direkt im Bereich der KI-Berichterstattung. Darüber wollen wir mit Ihnen sprechen. Ja, wir sprechen wieder einmal über KI, aber dieses Mal ist es eine Aussage einer Gruppe von Technologen, die vor einer existenziellen Bedrohung für die Menschheit warnt. Es war die Aussage mit nur einem Satz, die Anfang dieser Woche in der gesamten Tech-Welt zu hören war. „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ Das kam vom Center for AI Safety, einer gemeinnützigen Organisation, und wurde von führenden Persönlichkeiten der KI-Entwicklung unterzeichnet. Nun ist es offensichtlich nicht das erste Mal, dass wir vor den Gefahren der KI gewarnt werden. Einige unserer Zuhörer erinnern sich vielleicht an die Pause, die Hunderte von Spitzentechnologen und Forschern bereits im März forderten und die bisher nicht wirklich zu einer Pause geführt hat. Aber all diese Weltuntergangswarnungen ließen uns fragen: Was sollten wir über das Potenzial für KI-Schäden glauben und wer von diesen Forschern und Technologen vertritt derzeit die vertrauenswürdigste Meinung? Will, wir wollten Sie einladen, um darüber zu sprechen. Gehen Sie zunächst ein Stück zurück. Erzählen Sie uns etwas über diese Aussage des Center for AI Safety. Was war der Auslöser dafür?

Will Knight : Ja, also denke ich, dass die Fortschritte, die wir bei diesen großen Sprachmodellen gesehen haben, insbesondere bei GPT-4, das ChatGPT antreibt, die Ursache für diesen und auch den vorherigen Brief, in dem eine Pause gefordert wurde, sind. Einige der Leistungen übertrafen einfach die Erwartungen der Menschen, die in der KI-Branche arbeiten. Sie gingen davon aus, dass die Lösung einiger Dinge zehn Jahre dauern würde oder dass sie ohne neue Techniken nur schwieriger zu lösen wären. Und plötzlich ist dieses Modell in der Lage, Dinge zu tun, die irgendwie einer Argumentation und einer Art abstraktem Denken ähneln, auch wenn es fraglich ist, ob es das tatsächlich ist. Es gab auf jeden Fall diesen Moment, in dem einige Leute – und ich habe mit KI-Forschern gesprochen, die nicht im entferntesten davon betroffen waren – sich überhaupt keine großen Sorgen über existentielle Risiken machten und diese Erkenntnis hatten. Ich denke, das ist einer der Auslöser dafür. Aber wir sollten auch anerkennen, dass es innerhalb der KI-Forschungsgemeinschaft eine solche Gruppe gibt, die sich seit langem, viele Jahre lang Sorgen macht und über existenzielle Risiken spricht, und das ist eine Art philosophische Frage, die sie haben. Und ich denke, dass dadurch viele dieser Standpunkte irgendwie wieder zum Vorschein kommen und wir sehen, wie eine ziemlich unterschiedliche Reihe von Perspektiven in einer wirklich alarmierenden Leseaussage verschmolzen wird. Ich denke, dass es wichtig ist, auch anzuerkennen, dass es viele KI-Forscher gibt, die sich überhaupt keine Sorgen über diese Bedrohung machen und viel mehr Perspektive bieten und sagen, dass KI weitaus unmittelbarere Bedrohungen mit sich bringt, wenn es um Dinge wie Voreingenommenheit oder Voreingenommenheit geht die Verbreitung von Fehlinformationen oder einfach nur das Falsche in den bereitgestellten Inhalten, sowie Dinge wie den Klimawandel oder einfach andere Probleme, die ein viel unmittelbareres Risiko für die Menschheit darstellen, ein greifbareres Risiko. Ich denke, das ist eine tolle Frage und es ist etwas knifflig, sie auszupacken.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Michael Heat : Es war also ein beeindruckender Fortschritt in den letzten sechs Monaten und jeder, der eines dieser Tools wie Bing Chat oder Google Bard verwendet hat, war wahrscheinlich ziemlich beeindruckt von der Leistungsfähigkeit. Aber was mich selbst betrifft, hat es mich nicht zum Nachdenken über einen Atomkrieg und eine globale Pandemie und einige der Warnungen gebracht, auf die diese Experten und Forscher hinweisen. Wie extrapolieren Sie das? Wie wird KI die Menschheit tatsächlich zerstören?

Will Knight : Das ist eine großartige Frage, und ja, ich habe selbst versucht, das zu verstehen, und ich habe mit einigen Leuten gesprochen, die diese Erkenntnis hatten. Da ist ein Typ, Sam Bowman, ein Forscher von der NYU, der sich Anthropic angeschlossen hat, einem der Unternehmen, die sich mit Sicherheit an diesem Thema arbeiten, und er hat ein Forschungslabor, das neu eingerichtet wurde, um sich auf Sicherheit zu konzentrieren. Und so argumentieren diese Leute, oder einige Leute wie er, dass diese Systeme in mancher Hinsicht Anzeichen größerer Intelligenz zeigen als erwartet, und dass sie Ziele haben, die sie auf undurchsichtigen und schwer vorhersehbaren Wegen erreichen können , manchmal überraschende Wege. Aber dann extrapolieren sie daraus und sagen, wie weit es in der Zukunft gehen wird, und es ist ein langer Weg in der Zukunft, aber sie sagen auch, dass wir nicht wissen, wie weit, weil sich die Dinge schneller bewegen. Seit Jahren arbeiten Menschen also an diesen KI-Systemen und konnten sie zum Stolpern bringen und sagen: „Ach, das entspricht nicht der menschlichen Intelligenz.“ Mit GPT-4 gibt es einige Fälle, in denen sie nicht mehr aus der Fassung geraten können und Dinge tun können, bei denen sie sagen: „Das habe ich überhaupt nicht erwartet.“ Ich denke, diese Art von Auslösern ist wie eine Art instinktive Vorstellung davon, dass etwas Menschen überlistet, und wenn man es dann bittet, ein Problem zu lösen, und es dies auf unerwartete Weise tut, stellen sie sich irgendwie vor, dass ihm möglicherweise das Ziel gegeben wird: „Ich weiß es nicht.“ Ich weiß nicht, etwas sehr Großes für eine Gesellschaft oder so etwas zu tun und dann wirklich äußerst überraschende und riskante Ziele zu erreichen, um das zu tun. Es scheint ein großer Sprung oder eine Extrapolation zu sein, wenn man bedenkt, dass Bing Chat ständig kaputt geht und Dinge falsch macht. Aber ich denke, das ist der Kern davon: Es gibt diese Vorstellung von dieser Technologie, die irgendwie grundlegend anders ist, dass sie irgendwie intelligent ist und intelligenter als wir und dass sie interagieren und manchmal sogar versuchen kann, Menschen zu überlisten. Ich denke, das kommt irgendwie daher.

Lauren Goode: Ist das die gleiche Sorge oder eine damit verbundene Sorge, dass es empfindungsfähig ist?

Will Knight : Nein, das glaube ich nicht. Ich denke, die Frage des Empfindungsvermögens hängt davon ab, wen man fragt. Es gibt einige Leute, die argumentieren, dass alle Arten von Systemen empfindungsfähig sein können, auch wenn sie nicht biologischer Natur sind, und dazu gibt es unterschiedliche Ansichten. Aber ich denke, dass viele Leute, zumindest mit denen ich gesprochen habe, sagen würden, dass dieses Risiko kein Bewusstsein erfordert. Es kann außer Kontrolle geraten und sehr unvorhersehbare Dinge tun, unabhängig davon, ob es tatsächlich empfindungsfähig ist, ob man sagen könnte, dass es empfindungsfähig war oder nicht.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Lauren Goode : Will, Sie sprechen mit vielen Forschern und Technologen, die in diesem Bereich tätig sind, und ehrlich gesagt fühlt es sich manchmal ein bisschen wie Musikstühle an. Okay, sicher, das Gleiche könnte man auch über Journalismus sagen, aber konzentrieren wir uns auf KI. Viele dieser Leute kamen von Google oder denselben akademischen Institutionen oder waren bei OpenAI, jetzt sind sie bei Anthropic. Es ist wirklich schwierig, herauszufinden, wer die Hauptakteure sind, abgesehen von den offensichtlichsten, und herauszufinden, wo sie übereinstimmen und wo sie voneinander abweichen. Wer sind Ihrer Meinung nach die Menschen, die sich derzeit am deutlichsten zum Thema KI äußern, und woher kommen die unterschiedlichsten Meinungen?

Will Knight : Nun, ich meine, einige der freimütigsten Leute im Moment sind diejenigen in diesen großen Unternehmen, die diese Interessen haben. Es sind Sam Altman von OpenAI oder Führungskräfte von Google und Microsoft. Ich glaube, sie sind recht offenherzig, und zwar aus verschiedenen Gründen, bei denen es nicht nur um die Bedenken der KI geht. Es fühlt sich an, als gäbe es, wie Sie sagen, eine leicht inzestuöse Welt von Menschen, die den Kool-Aid der übermenschlichen KI getrunken haben, die ganz nah dran ist. Dann gibt es Leute wie die Forscher, die eine der ersten Arbeiten geschrieben haben, die darauf hinweisen, also Timnit Gebru und Margaret Mitchell von Google, die über die wirklich greifbaren, aktuellen Risiken bei großen Sprachmodellen geschrieben haben, wie zum Beispiel, dass sie Dinge erfinden und irreführen Leute, die zu diesem Zeitpunkt bei Google waren und dann je nach der erzählten Geschichte entweder entlassen oder zum Gehen aufgefordert wurden. Ich sehe auf jeden Fall diese Art von Kluft zwischen Menschen, die sich mehr auf die kurzfristigen Risiken konzentrieren und irgendwie frustriert sind über diese Ansicht langfristiger existenzieller Ängste, die von vielen, den meisten Menschen, die dazu neigen, zu kommen scheint Viele haben die größte finanzielle Macht und Interessen, und dann gibt es Leute, die davor warnen, womit wir uns heute befassen sollten, und die befürchten, dass das eine Ablenkung sein könnte. Dann ist Geoffrey Hinton ein interessanter Fall, denn er ist einer der bekanntesten Menschen in der KI und einer der Menschen, die Deep Learning entwickelt oder Pionierarbeit geleistet haben, was die Grundlage für all das maschinelle Lernen ist, das in diese Modelle eingeflossen ist. Und in letzter Zeit hat er irgendwie seine Position geändert und ist besorgter geworden oder offener geworden. Er verließ Google und sagte, wir müssten uns über die damit verbundenen Risiken Sorgen machen. Eigentlich ist er, glaube ich, sowohl über die kurzfristigen als auch über die langfristigen Risiken besorgt, aber seine Sorge, dass die KI Amok läuft und schließlich die Kontrolle übernimmt oder außer Kontrolle gerät, hat alle Schlagzeilen gemacht, und die Leute haben sich darauf konzentriert . Aber ich glaube, er macht sich über beides ein wenig Sorgen.

Michael Heat : Will, wir haben bereits zwei dieser großen offenen Briefe gesehen, die vor den unmittelbaren und zukünftigen Risiken von KI warnen. Wann werden wir den dritten sehen und wer wird ihn schreiben?

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Will Knight : Ja, ich schätze, nächste Woche wird es von jedem einzelnen Weltführer unterschrieben. Ich halte es für ein echtes Risiko, dass die Menschen aus diesem Grund einige der wirklichen Probleme der KI nicht ernst nehmen. Ich meine, es ist noch weit weg. Und wenn sich die Leute wirklich Sorgen über Probleme machen, die sich mit solchen apokalyptischen Dingen in Verbindung bringen lassen, ist das ein extremer Weg. Ich habe das Gefühl, dass es noch mehr Gegenreaktionen geben könnte. Ich meine, das passiert irgendwie schon einigermaßen, aber ich kann mir vorstellen, dass mehr Leute diese Leute einfach nicht so ernst nehmen.

Lauren Goode : Ja, und wie in Ihrem Bericht erwähnt, Will, geht der Brief nicht wirklich auf die unmittelbareren Schäden wie Voreingenommenheit, Überwachung oder Fehlinformationen ein, auf die Sie zuvor hingewiesen haben. Man muss sich also fragen, ob die Konzentration auf die großen existenziellen Bedrohungen nicht von den Dingen abweicht, auf die wir in diesem Moment achten sollten. Und ich denke, das ist tatsächlich ein guter Übergang zu unserem nächsten Segment. Machen wir eine kurze Pause und kommen zurück und sprechen über die KI-Regulierung.

[Brechen]

Lauren Goode : Anfang dieses Monats sagte Sam Altman, einer der prominentesten Köpfe der generativen KI, der OpenAI leitet, vor dem Kongress über die Auswirkungen von Produkten wie ChatGPT aus. Er erklärte nicht nur in einfachen Worten, wie diese Technologie funktioniert, sondern forderte sogar eine Form der Regulierung und sagte dem Kongress, dass er mit den Unternehmen in diesem Bereich zusammenarbeiten sollte, um zu versuchen, Regeln und Leitplanken zu finden, bevor die Technologie völlig Amok läuft. Will, als ich vor ein paar Wochen zum ersten Mal davon las, muss ich zugeben, dass ich mich gefragt habe, wie ernst diese Forderungen nach Regulierung sind. Die Technologiebranche positioniert sich in Washington schon seit langem so, dass es den Anschein hat, als wolle sie mit den Gesetzgebern zusammenarbeiten, aber letztendlich würde zu viel Regulierung ihre Geschäfte zerstören. Warum fordert OpenAI Leitplanken?

Will Knight : Ja, ich denke, es ist bis zu einem gewissen Grad eine Art Echo dessen, was wir zuvor gesehen haben. Und wir haben auch gesehen, dass Microsoft einen Entwurf zur Regulierung von KI vorgelegt hat. Und Google arbeitet angeblich mit der EU an einigen Regulierungslücken, während sie geeignete Vorschriften ausarbeiten. Und ich denke, es ist eine Art, dass sie wissen, dass eine Regulierung bevorsteht, und wenn sie sagen: „Oh, wir begrüßen das“, erwecken sie den Eindruck, dass sie nicht gegensätzlich sind, und dass sie es vielleicht auch gestalten können. Ich denke, es lohnt sich auch, zwei Dinge anzuerkennen, die die Leute in der Regierung wirklich nicht wissen ... im Großen und Ganzen haben sie keine Ahnung, was das für ein Zeug ist. Und so begeben sie sich gerne ein Stück weit in die Hände von Experten. Die Experten, die daran arbeiten, werden sagen: „Wir sind diejenigen, die das wirklich verstehen, und so regulieren Sie es.“ Sie haben gewissermaßen die Oberhand, wenn es darum geht, die Technologie zu verstehen, aber auch innerhalb der Regierung habe ich mit ein paar Leuten in der Regierung gesprochen und sie sehen eine Technologie, ich meine, sie wissen, dass es Risiken gibt, aber sie Sehen Sie eine Technologie, von der Ökonomen sagen, dass sie für die Produktivität und die Wirtschaft enorm wertvoll sein und die Wirtschaft wachsen lassen könnte, und dass die USA dabei einen Vorsprung vor ihren Konkurrenten haben. Sie wollen also nichts tun. Ich denke, was sie wahrscheinlich am meisten beunruhigt, ist, der Technologie versehentlich einen Dämpfer zu verpassen. Ich denke, Leute wie Sam Altman wissen wahrscheinlich, dass es nicht so viel Interesse an wirklich strengen Vorschriften rund um die Technologie geben wird, sondern dass man einfach nur versucht, ein gutes Gesicht zu machen und sie wirklich mitzugestalten.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Michael Heat : Außerdem habe ich das Gefühl, wenn ein CEO eines großen Unternehmens, das ein wichtiger Akteur im Technologiebereich ist, über Regulierung spricht, stellt er sich in Wirklichkeit als Experte auf diesem Gebiet dar, was die Bedeutung von Regulierung erhöht ihre Rolle im Gespräch. Es macht sie zu einer Stimme, die nicht ignoriert werden kann. Das macht sie zu einer Kraft, der jeder folgen muss. Es geht eigentlich darum, ihre Bedeutung für die Gesellschaft zu steigern und ihnen eine größere Machtposition zu verschaffen, nicht wahr?

Will Knight : Ja das ist richtig. Das ist richtig. Die Wahrheit ist, dass sie noch nicht einmal Details darüber veröffentlicht haben, wie das leistungsstärkste dieser KI-Modelle GPT-4 funktioniert. Sie können diejenigen sein, die sagen: „Nun, wir wissen, wie wir das kontrollieren können, weil wir die einzigen sind, die Zugang dazu haben.“ Ich meine, das ist eines der Probleme damit. Ich denke, wenn es etwas Mächtiges gibt, gibt es ein echtes Argument dafür, dass es vielen Wissenschaftlern möglich sein sollte, es zu studieren und zu untersuchen. Sie haben nicht gesagt, dass sie das Gefühl haben, dass sie es öffnen und transparenter machen werden.

Lauren Goode : Und das ist der Kern der Sache in Europa, bei Google, oder? Wir alle haben vor ein paar Wochen über Google IO berichtet, und dabei ist unter anderem klar geworden, dass Bard, ihr generatives KI-Chat-Tool, in europäischen Ländern nicht verfügbar ist. Und einige unserer Kollegen bemühten sich, das zu melden, weil die Art und Weise, wie Google es präsentierte, einfach so aussah: „Hier, hier ist dieses weltverändernde Tool.“ Aber es stellt sich heraus, dass es große Teile der Welt gibt, die keinen Zugang dazu haben, und das liegt an den dortigen regulatorischen Rahmenbedingungen.

Will Knight : Ja, das ist eine wirklich große Frage, ob die USA möglicherweise ähnliche Vorschriften erlassen, wenn sie mehr Transparenz erfordern. Aber ich habe heute eine Geschichte gelesen, in der es hieß, dass die Biden-Regierung diesbezüglich ziemlich gespalten ist, und es gibt viele Leute, die die Idee zurückweisen, dass wir so etwas tun sollten, weil, noch einmal, weil Sie wollen das nicht verhindern. Wir haben das bei anderen Technologien gesehen, etwa bei selbstfahrenden Autos. Sie wollten sie überhaupt nicht regulieren, weil sie glaubten, dass dies eine enorme, erstaunlich leistungsstarke Technologie sein würde und die USA dabei die Nase vorn haben würden. Es ist verständlich. Aber jetzt stehen wir vor vielen Fragen zur Zuverlässigkeit dieser Systeme und müssen weitere Vorschriften einführen. Ja, ich denke, das könnte sich wiederholen.

Lauren Goode: Wie groß ist Ihrer Meinung nach die Wahrscheinlichkeit, dass wir in naher Zukunft eine echte Regulierung rund um KI erleben werden?

Will Knight : Ich denke, dass wir eine gewisse Regulierung sehen werden. Ich denke, es ist klar, dass es eine Art Appetit gibt, und einer der Gründe, warum all diese Dinge tatsächlich in Spannung stehen, ist, dass die USA zusammen mit, sagen wir, China und Europa daran interessiert sind, ihren Standpunkt zu vertreten, wenn es um die Regulierung geht . Denn wenn Sie derjenige sind, der die Vorschriften definiert, werden sie oft anderswo übernommen. Und es kann eine Art Führungsrolle sein. Ich denke, dass es einige Vorschriften geben wird, aber ich denke, dass es in den USA höchstwahrscheinlich recht schwach sein wird, relativ gesehen am schwächsten. Und ja, die Frage, was wirklich interessant ist. Ich habe mit einigen Filmemachern und Autoren in Hollywood gesprochen, die wirklich daran interessiert sind, was KI ist, welche Art von Bedrohung sie darstellen könnte, und sie denken irgendwie über Fälschung nach, KI-Fälschung, und ich denke, eine der offensichtlichsten Vielleicht geht es um eine Art Regulierung von Deepfakes, die eine gewisse Einschränkung von Deepfakes erfordert, oder um Plattformen, die es nicht zulassen, dass diese ohne Erlaubnis verbreitet werden. Aber das ist nur ein kleiner Aspekt eines ganzen generativen KI-Stacks.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Michael Heat : Und ich denke, dass ein Teil dieser Regulierung vom privaten Sektor kommen wird. Plattformen legen Regeln fest, was gepostet werden darf, Unternehmen legen Regeln fest, wofür ihre Tools verwendet werden dürfen. Und das ist nicht unbedingt eine Regulierung, es ist einfach Selbstbeherrschung.

Will Knight : Richtig, und oft nicht besonders effektiv, wenn die Plattformen das tun oder wenn Unternehmen das sagen. Es hält Menschen nicht davon ab, Dinge zu tun. Und mit diesen Bildbearbeitungstools und Sprachsynthesetools ist auf jeden Fall zu sehen, dass es ... Ich meine, es gibt jetzt einfach eine Menge Sprach-Deepfakes auf Twitter und immer mehr Bild- und Videomanipulationen, und das wird immer einfacher Tu es.

Lauren Goode: Tatsächlich haben wir erst vor ein paar Wochen eine Episode von Gadget Lab aufgenommen, in der unser Produzent hier, Boone, unsere Stimmen und seine eigene Stimme nachgeahmt hat, und es war erschreckend gut.

Will Knight: Oh wow.

Lauren Goode : Boone, wirklich, er hat hier die ganze Macht. Er hat all diese Audiodaten von uns, die er einfach durch ein Gen-KI-Tool schicken kann, und das wäre unser Ende. Will, Sie scheinen eher optimistisch zu sein, was die Möglichkeit einer Regulierung hier in den USA angeht, was mich in gewisser Weise überrascht. Ich neige dazu, mir vorzustellen, dass sich diese Dinge eher langsam bewegen. Und zu Ihrem früheren Punkt: Vielleicht verstehen einige unserer Kongressabgeordneten die Technologie nicht vollständig, und stellt dies eine Art Hindernis für die Weiterentwicklung der Dinge dar? Aber es scheint, als ob Sie glauben, dass dies eine reale Möglichkeit ist.

Will Knight : Nun, ich glaube, ich hätte mich vielleicht vertan, wenn ich optimistisch geklungen hätte. Ich glaube, ich bin optimistisch, dass es meiner Meinung nach eine große Dynamik gibt, eine gewisse Regulierung herbeizuführen. Ich denke, dass in den USA etwas passieren wird, aber ich vermute, dass es sehr … Ich vermute, dass es wahrscheinlich ziemlich wirkungslos wäre, wenn das ein Maßstab für meine … ist.

Lauren Goode : Ja, schwache Soße. Wills Vorhersage, schwache Soßenregulierung.

Will Knight : Aber ich war im Allgemeinen überrascht, wie schnell die EU und China gehandelt haben und beide gewissermaßen an der Spitze der Regulierung standen. Und ich denke, dass es da so etwas gibt, was es antreibt, wäre weniger – wenn es wirklich schnell geht –, vielleicht würde es weniger darum gehen: „Oh, wir wollen wirklich sicherstellen, dass das sicher geschieht“, sondern nur darum, dass die USA ihre Regeln haben in einer solchen globalen Diskussion dargelegt. Sie können ein Deepfake von mir erstellen, um etwas viel deutlicheres zu sagen.

Michael Heat : Oh, keine Sorge. Wir werden. Wir werden.

Lauren Goode: Wir sind dabei.

Michael Heat: Wir nutzen diese Aufnahme nur, um Ihre Stimme einzufangen und das Model zu füttern.

Will Knight : Rechts. Das macht Sinn. Bringen Sie mich einfach dazu, so viele Dinge wie möglich zu sagen.

Lauren Goode : Bald wirst du jeden Tag in diesem Podcast sein. Dank KI werden wir daraus einen täglichen Podcast machen. In Ordnung. Machen wir noch einmal eine kurze Pause und wir kommen mit unseren sehr menschlichen Empfehlungen zurück.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

[Brechen]

Lauren Goode : Will, ich freue mich, deine Antwort zu hören, weil sie wahrscheinlich etwas mit der Katze zu tun hat. Was ist Ihre Empfehlung diese Woche?

Will Knight : Ich werde dich jetzt im Stich lassen. Ich wünschte, ich hätte noch einen weiteren Vorschlag zum Thema Katze. Ich meine, ich habe einfach immer Katzen auf TikTok ... Mein Feed besteht so ziemlich nur aus Katzen.

Lauren Goode: Es ist Ihre Anlaufstelle.

Will Knight : Nur Katzen. OK. Ich werde das Buch Antimatter Blues von Edward Ashton empfehlen. Es ist eine Fortsetzung von Mickey7, der verfilmt wird. Es geht um einen Klon und er ist eine Art unglücklicher Klon und seine Abenteuer auf einer Kolonie außerhalb der Welt. Oh, kann ich eigentlich auch eine Fernsehsendung namens „Fired on Mars“ empfehlen, die ein Freund von mir gemacht hat? Es geht um einen Typen, der als Grafikdesigner in einer Marskolonie arbeitet, gefeuert wird und in alle möglichen Schwierigkeiten gerät.

Lauren Goode : Arbeitet er für Elon Musk? Denn das würde sehr viel Sinn machen.

Will Knight: Es würde Sinn machen.

Lauren Goode: Und wo können die Leute diese Fernsehsendung finden?

Will Knight: Das ist auf HBO.

Lauren Goode: Ach okay.

Will Knight : Es liegt tatsächlich an Max. Entschuldigung, ich habe es völlig falsch verstanden.

Michael Heat : Oh, keine Sorge. Das verstehen alle völlig falsch.

Lauren Goode: Wir nennen es in dieser Show immer noch HBO.

Michael Heat : Ja. FKA HBO, jetzt Max.

Lauren Goode : Irgendwann werden wir ihm einfach ein Symbol geben. Naja, das hört sich beides entzückend an. Vielen Dank für diese Empfehlung. Diese Empfehlungen, Plural, Will. Mike, was ist deine Empfehlung?

Michael Heat: Nun, es hat nichts mit Raumfahrt oder künstlicher Intelligenz zu tun, aber ich werde empfehlen –

Lauren Goode: Sind es Gurken?

Michael Heat: Oh, es könnte an eine Gurke angrenzend sein.

Lauren Goode: Was ist das?

Michael Heat: Bienenwickel.

Lauren Goode: OK, sag mehr.

Michael Heat : OK. Das ist Wrap, WRAP.

Lauren Goode : Ach okay. Ich dachte, es wäre nur ein Haufen Bienen …

Michael Heat: Rappen?

Lauren Goode : ... rappen. Haben Sie die Begeisterung für ihr neuestes Lied gehört?

Michael Heat : Ach nein. Nein nein Nein Nein Nein.

Lauren Goode: Ok, tut mir Leid.

Michael Heat : Erlauben Sie mir, philosophisch zu wachsen. Das ist Lebensmittelfolie. Es ersetzt Plastikfolie oder Plastiktüten oder jede andere Art von Einwegplastik, die Sie möglicherweise zum Konservieren von Lebensmitteln in Ihrem Kühlschrank oder in Ihrer Küche verwenden. Es handelt sich um ein Baumwolltuch, das mit Bienenwachs und Pflanzenölen beschichtet ist und eine Art Versiegelung um alles bildet, was Sie schützen möchten. Sie können es auf eine Schüssel Hummus oder eine Schüssel Salsa legen. Ich habe ein kleines verwendet, um eine halbe Zucchini oder eine halbe Zwiebel einzuwickeln. Wenn Sie nur die Hälfte eines Gemüses verwenden, wickeln Sie es normalerweise einfach in Plastikfolie ein. Aber Plastik ist, wie wir wissen, schrecklich. Es liegt einfach auf Mülldeponien und zerfällt sehr, sehr langsam in kleinere Plastikteile, die in Gewässer gelangen und in unserem Magen landen. Wir sollten alle aufhören, Plastik zu verwenden, und hier ist eine großartige Möglichkeit, dies zu tun. Diese sind mir begegnet, weil wir auf WIRED darüber geschrieben haben, wir empfehlen sie tatsächlich als eines unserer liebsten umweltfreundlichen Produkte und wir mussten ein Foto von ihnen machen. Ich habe welche im Everything Store gekauft. Ich glaube, ein Dreierpack kostet 17 US-Dollar. Im Dreierpack gibt es ein kleines, ein mittleres und ein großes, was fast alles ist, was Sie brauchen.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Lauren Goode: Es kommt auf die Größe der Bienen an.

Michael Heat: Es kommt auf die Größe des ... nein an.

Lauren Goode: Tut mir leid, mein Herz flattert, als ich das nur höre.

Michael Heat : Ich bin sicher. Ich bin sicher.

Lauren Goode : Ich weiß, dass diese Witze wahrscheinlich wirklich schmerzen. Bitte fahre fort.

Michael Heat: Ich fühle mich gerade so besiegt.

Lauren Goode: Ich werde die Bienenwachsfolie verwenden.

Michael Heat: Ja, Bee's Wrap heißt es.

Lauren Goode: Bienenwickel.

Michael Heat : Es gibt mehrere Unternehmen, die dies herstellen. Ich werde Bee's Wrap empfehlen, weil es das ist, das ich gekauft habe und das mir gefällt. Und es ist ein Dreierpack für weniger als 20 $. Sie können es in Hippie-Lebensmittelgeschäften oder einfach im Internet kaufen. Aber es ist großartig. Ich benutze sie ständig. Und ich würde sagen, wenn Sie sie waschen, was Sie zwischen den Anwendungen tun sollten, waschen Sie sie in kaltem Wasser, denn wenn Sie sie in heißem Wasser waschen, werden sie ruiniert, weil das Bienenwachs schmilzt und alles hineinläuft Dein Waschbecken.

Lauren Goode: Diese Empfehlung ist ein echter Hingucker.

Michael Heat: Lauren, ich denke, ich sollte alle vor weiteren Bienen-Wortspielen bewahren, indem ich dich frage, was deine Empfehlung ist.

Lauren Goode : Oh, alles klar. Schweigeminute zum Ende der Nachfolge. Großartig. Diejenigen unter Ihnen, die unseren Podcast gehört haben, wissen, dass ich Ihnen vor einigen Wochen empfohlen habe, „Succession“ anzusehen, die vierte Staffel hat gerade erst begonnen, und ich habe gesagt, dass Sie sich den Podcast von Anfang an ansehen sollten, damit Sie sich völlig in die Roy-Familie vertiefen und sich emotional mit ihr verbunden fühlen können Sonntagabendprogramm auf dem Sender, der früher als HBO bekannt war. Das Staffelfinale war letzte Woche, es war episches, episches Fernsehen. Aber wenn Sie das Gefühl hatten, dass ich mich danach fühlte, einfach irgendwie leer und ich will mehr, und jetzt scrolle ich einfach durch Instagram auf der Suche nach Succession-Memes und schreibe allen meinen Freunden eine SMS und sage: „Oh mein Gott, hast du gesehen, was passiert ist?“ Am Ende?" Sie sollten sich den Succession-Podcast anhören. Ja. Vollständige Offenlegung, die Person, die diesen Podcast moderiert, Kara Swisher, ich kenne sie ziemlich gut. Manchmal nimmt sie meinen Parkplatz ein, was eine ganz andere Geschichte ist. Aber ich habe früher mit Kara zusammengearbeitet, sie ist eine fantastische Podcast-Interviewerin und sie hat einen Podcast für HBO, den Nachfolge-Podcast von Succession, den Sie sich jede Woche anhören können. Und so hatte sie diese Woche Interviews mit Alexander Skarsgård, Jeremy Strong und Mark Mylod – zwei der Schauspieler in der Sendung und dann mit dem Regisseur. Du musst es dir ansehen. Es ist großartig. Es ist genau die Art von zusätzlichen Nachfolgeinhalten, die Sie brauchen, wenn Sie, wie ich, über das Ende des Programms trauern.

Michael Heat : Das ist also eine gute Empfehlung. Und ein Lob an Kara und ein Lob an alle Leute im Journalismus, die diese Podcasts über Sendungen machen, aber ich bin irgendwie davon überzeugt, dass die Sendung einen Podcast hat.

Lauren Goode

Lauren Goode

Julian Chokkattu

WIRED-Mitarbeiter

Lauren Goode: Ich stimme eher zu, mit Ausnahme dieser Show.

Michael Heat : Also ist diese Show diejenige, die Lust auf mehr macht, und das, wovon Sie mehr wollen, ist Geschwätz über die Show? Und wenn sie einen gut produzierten Podcast machen können, dann ist das etwas, das Sie sich anhören werden.

Lauren Goode : Richtig, weil es in vielen Podcasts um Fernsehsendungen geht und sie nicht in Misskredit gebracht werden, aber es sind Fandom-Shows. Es sind ein paar Leute, die sich wie ich wirklich sehr für das Programm interessieren, und die einfach nur herumsitzen und wie Freunde darüber reden. Kara kann tatsächlich mit Brian Cox, dem Regisseur, dem Autor oder einigen der Stars der Serie sprechen. Man hört also direkt von ihnen, wie sie ihre Charaktere entwickeln und wie sie über die Handlungsstränge nachdenken. Und das macht mir wirklich Spaß.

Michael Heat: Kara hat also dieses Ding, das ich die Maschine nenne. Wenn sie einen interviewt, hat man das Gefühl, ihre Anwesenheit zu spüren.

Lauren Goode : Du warst in ihrer Gegenwart. Wir waren in ihrer Gegenwart, und das wissen Sie.

Michael Heat: Sie ist eine sehr energische Interviewerin.

Lauren Goode: Sie ist.

Michael Heat: Sie ist eine sehr gute Interviewerin, da sie ihre Interviewpartner dazu bringt, über Dinge zu sprechen, über die kein anderer Interviewer sie zum Reden bringen kann.

Lauren Goode : Besonders gern. Sie ist sehr gut darin, die Schwächen von Menschen zu erkennen und im Podcast darauf einzugehen. Und es ist anders, ich denke, wenn man Technologiemanager interviewt, wie sie es immer tut, wenn es sich dabei um Leute in extremen Machtpositionen handelt und man ihnen die ganz schwierigen Fragen stellt darüber, wie sie ihre Geschäfte führen, im Gegensatz dazu, wenn man sowohl Interviewer als auch Fan ist und mit jemandem spricht, der völlig in seinem kreativen Element ist und eine Show macht. Ich denke, es ist eine etwas andere Stimmung.

Michael Heat: Ist das für Sie also eine leichte Idee, das nächste Mal eines davon zu machen?

Lauren Goode : Nein, ich habe ehrlich gesagt keine Zeit. In einer idealen Welt würde ich das auf jeden Fall gerne tun. Aber ich habe bereits einen weiteren Podcast, falls Sie es noch nicht wussten, und ich habe schon Mühe, alles in den Tag zu integrieren. Nein, ich melde mich nicht ehrenamtlich für einen Podcast einer Fernsehsendung, aber ich höre ihnen gerne zu.

Michael Heat: Was wäre, wenn der Co-Moderator Alexander Skarsgård wäre?

Lauren Goode : Ich bin niedergeschlagen. Ich bin dort. Ich liebe den Skarsgård.

Michael Heat: Perfekt.

Lauren Goode : Also gut, das war's für unsere Show. Vielen Dank, Will, dass Sie sich uns angeschlossen haben und uns von der Vorstellung distanziert haben, dass wir aufgrund der KI derzeit auf eine Erweiterungsveranstaltung zusteuern.

Will Knight: Nun, ich hoffe auf jeden Fall, dass ich Recht habe.

Lauren Goode : Ich auch. Das tun wir beide. Und vielen Dank an alle, die zugehört haben. Wenn Sie Feedback haben und immer noch hier sind, können Sie uns alle auf Twitter finden. Schauen Sie sich einfach die Shownotizen an. Wir würden uns freuen, von Ihnen zu hören. Unser Produzent ist der hervorragende Boone Ashworth, der sehr echte Mann selbst. Auf Wiedersehen. Wir kommen nächste Woche wieder.

[Gadget Lab-Outro-Themenmusik wird abgespielt]

Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Lauren Goode Michael Calore Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Lauren Goode Michael Calore Will Knight Lauren Goode Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Lauren Goode Will Knight Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Michael Calore Lauren Goode Will Knight Lauren Goode
AKTIE