Um unsere AItopia-Reihe über die Auswirkungen künstlicher Intelligenz auf Design, Architektur und Menschlichkeit abzurunden, erläutert -Redaktionsleiter Max Fraser unsere Richtlinien zu text- und bildgenerierenden Technologien.
Bei verantwortungsvollem Einsatz hat künstliche Intelligenz (KI) transformatives Potenzial in den von abgedeckten Branchen sowie in vielen anderen Sektoren und Bereichen der Gesellschaft. Es kann schnell manchmal weit hergeholte Ideen generieren und visualisieren, die Verarbeitung und Zusammenfassung riesiger Datensätze beschleunigen und praktische Szenarien wie die Auswirkungen von Tageslicht, Lärm oder schlechtem Wetter vorhersagen und simulieren.
Aber es ist nicht alles positiv. KI-Technologien geraten bereits in die Kritik, weil sie auf Informationen aus dem Internet angewiesen sind, was zu Unwahrheiten und Vorurteilen gegenüber Randgruppen führt und das Risiko potenzieller Verletzungen des geistigen Eigentums birgt.
Derzeit mangelt es an einer internationalen Einigung darüber, was ethische KI ausmacht, etwas, das Entwickler und Regierungen nur mit Mühe definieren können. Unterdessen müssen sich KI-Labore in einer aufstrebenden und sich ständig verändernden Branche selbst regulieren.
begrüßt neue Technologien und KI ist da keine Ausnahme. Tatsache ist, dass wir KI bereits jeden Tag nutzen, und das schon seit einiger Zeit. Von der Transkriptionssoftware Otter bis zum Subediting-Assistenten Grammarly und dem Texterzähltool AdAuris hat die Technologie dazu beigetragen, unsere Arbeit effizienter und zugänglicher zu machen.
Aufgrund der rasanten Entwicklung generativer KI-Tools wie ChatGPT und Midjourney im vergangenen Jahr ist es für uns jedoch ratsam, bei der Darlegung unserer Technologiepolitik anderen Veröffentlichungen zu folgen.
Wir erkennen die Fallstricke und Schwachstellen in Bezug auf unsere Praxis in den Medien an. Trotz der verführerischen Bilder, die es synthetisieren kann, oder des scheinbar maßgeblichen Textes, den es ausspucken kann, wird wachsam gegenüber dem möglichen Eingriff der KI in die Originalität bleiben und bei der Beurteilung von KI-Projekten stets unsere hohen Standards anwenden.
Hier skizzieren wir die Parameter, innerhalb derer wir uns mit den uns derzeit zur Verfügung stehenden KI-Tools befassen werden – oder auch nicht.
Text und Kopie
Während unserer Berichterstattung über KI hat das Redaktionsteam von mit großen Sprachmodellen wie ChatGPT und Bard experimentiert, um die Ethik und Wirksamkeit der sich ständig weiterentwickelnden Tools zu prüfen, die uns zur Verfügung stehen.
Wir sprechen uns strikt gegen den Einsatz solcher Technologien als primäres Werkzeug zum Schreiben von Geschichten aus. Die erheblichen und gut dokumentierten Probleme im Zusammenhang mit der Zuverlässigkeit der von ihnen erstellten Informationen könnten die Genauigkeit, Transparenz und Verantwortlichkeit untergraben, auf die bei seinen Inhalten stolz ist. Und auch wenn das alles kein Problem darstellt, sind die von der KI erhobenen Texte oft langweilig und einfallslos.
Daher veröffentlicht keine Geschichten, die ganz oder teilweise von KI generierte Texte verwenden. Wenn KI-generierter Text direkt in unseren veröffentlichten Journalismus eingefügt wird, geschieht dies nur dann, wenn sich die Geschichte auf KI konzentriert und eindeutig als solche gekennzeichnet ist. Wenn es außerhalb dieses Kontexts jemals eine Gelegenheit gibt, bei der ein Autor beabsichtigt, KI-generierten Text zu verwenden, wird dies immer von einem leitenden Redakteur genehmigt und den Lesern in der Geschichte selbst klar mitgeteilt.
verwendet derzeit das KI-Tool Grammarly, um Rechtschreibung und Grammatik zu überprüfen, aber jede Geschichte, die auf erscheint, wird weiterhin einen menschlichen Redakteur haben. Wir gehen nicht davon aus, dass die KI-Bearbeitung in Bezug auf das Thema korrekte Urteile fällen kann, ohne Gefahr zu laufen, dass Bedeutung, Struktur und Tonalität verändert werden.
Zu den weiteren KI-gestützten Tools, die die Content-Teams von derzeit nutzen, gehört das Voice-to-Text-Tool Otter, das dabei hilft, die sonst zeitaufwändige Transkription von Interviews zu rationalisieren. Transkriptionen von diesen nützlichen, aber alles andere als unfehlbaren Plattformen werden vom Interviewer vor der Veröffentlichung stets sorgfältig auf Richtigkeit überprüft.
verwendet auch KI-Tools, um unseren Lesern einige Inhalte bereitzustellen. Beispielsweise verwenden wir einen Dienst namens LiftIgniter, um verwandte Inhalte am Ende von Geschichten und in der rechten Spalte der Website vorzuschlagen, während AdAuris KI verwendet, um Text in Audio umzuwandeln, sodass Menschen unsere Geschichten anhören können.
Gelegentlich verwenden wir möglicherweise verschiedene KI-Tools, um Optionen für Schlagzeilen, Story-Ideen oder zu Recherchezwecken zu erarbeiten, jedoch nur, um die Arbeit des -Teams zu unterstützen. Unter allen Umständen werden endgültige Entscheidungen immer durch menschliches Urteilsvermögen getroffen und entsprechen den strengen Standards, die vom Redaktionsteam befolgt werden.
Bilder und Fotografie
Wir legen Wert auf Originalinhalte in allen Formaten, und Fotografie und Kunstwerke bilden da keine Ausnahme. Wir bevorzugen weiterhin die Veröffentlichung von Fotografien und von Menschen erstellten Illustrationen gegenüber KI-generierten Bildern. Wir ermutigen Dritte, die Bilder zur Veröffentlichung auf einreichen, transparent über alle KI-Tools zu sein, die sie möglicherweise zur Erstellung der Bilder verwendet haben, und werden diese Informationen gegebenenfalls in den Artikel aufnehmen, wenn sie bereitgestellt werden.
Wenn wir unsere eigenen Kunstwerke oder Bilder erstellen und diese nur zu KI-spezifischen Inhalten begleiten, halten wir es möglicherweise für angemessen, KI-generierte Kunstwerke zur Veranschaulichung einer Geschichte zu verwenden. Wir werden diesbezüglich stets transparent sein und das verwendete Modell anerkennen. Für alle anderen Geschichten, die illustriert werden müssen, beauftragen wir einen menschlichen Illustrator. Diese Person kann bildgenerierende KI nutzen, um bei der Entwicklung von Ideen zu helfen, aber wir verlangen, dass sie das endgültige Kunstwerk mit ihren üblichen Verfahren erstellt, anstatt ein Kunstwerk einzureichen, das vollständig von KI generiert wurde.
Projekte und Daten-Scraping
Zu keinem Zeitpunkt wird KI nutzen, um an den kompetenten menschlichen Mitwirkenden vorbeizukommen, die einzeln und gemeinsam zum einflussreichsten Architektur- und Designmagazin der Welt machen. Ohne ihre intelligente Prüfung, ihr Urteilsvermögen und ihre Fairness – seien es Autoren, Redakteure, Fotografen, Illustratoren, Videofilmer oder Fachberater – wäre s weltweiter Ruf gefährdet. Das ist etwas, was weder wir noch unsere Leser jemals aufs Spiel setzen wollen.
Wir sind uns bewusst, dass KI auf die eine oder andere Weise möglicherweise eine existenzielle Bedrohung für eine Vielzahl menschlicher Rollen in den Bereichen Design und Architektur sowie für unseren eigenen Beruf als Journalist darstellt. KI-Tools ersetzen bereits nach und nach bestimmte Aufgaben und könnten plötzlich dazu führen, dass eine menschliche Rolle überflüssig wird. Abhängig von den Einzelheiten könnte dies als negative Entwicklung für unsere Berufe interpretiert werden, sofern nicht neue menschliche Rollen geschaffen werden, um diese Lücken zu füllen. All dies bleibt schwer vorherzusagen, aber wird sich typischerweise auf die Seite der Feinheiten der menschlichen Neugier, des Wissens, der Erfahrung und des Einfallsreichtums stellen – und dennoch die technologischen Errungenschaften schätzen.
Als Online-Ressource für Architektur und Design, die über 50.000 Artikel und fast eine Million Bilder veröffentlicht hat, ist es praktisch unvermeidlich, dass unsere eigenen Inhalte zum Trainieren von KI-Modellen verwendet werden. Obwohl wir dafür sind, Architektur und Design so vielen Menschen wie möglich zugänglich zu machen, betrachten wir das Plagiat unserer Inhalte durch Menschen, die KI-Tools verwenden, selbst wenn es unbeabsichtigt ist, als potenziell ernsthafte Bedrohung für unser Unternehmen. Wir untersuchen dieses Problem derzeit weiter und werden möglicherweise in Zukunft Maßnahmen ergreifen, um Unternehmen daran zu hindern, unsere Inhalte zu diesem Zweck zu entfernen. Wir setzen uns daher dafür ein, dass wir durch den eigenen Einsatz von KI-Tools nicht versehentlich Inhalte anderer Personen plagiieren.
Generative KI-Technologien werden sich weiterentwickeln und verändern, was wir begrüßen und weiterhin beobachten werden. Wir können unsere Position gelegentlich weiterentwickeln und werden unsere Richtlinien entsprechend aktualisieren.
Bild erstellt von Selina Yau mit Midjourney
AItopia
Dieser Artikel ist Teil der AItopia-Reihe von , in der die Auswirkungen künstlicher Intelligenz (KI) auf Design, Architektur und Menschlichkeit jetzt und in der Zukunft untersucht werden.