본문 바로가기
독일어공부 Top Thema

Wie gefährlich ist ChatGPT?

by 파란하늘 차차 2023. 5. 13.

https://learngerman.dw.com/de/l-64862399

 

Wie gefährlich ist ChatGPT? | DW Deutsch Lernen

Ein neuer Chatbot kann mit Künstlicher Intelligenz selbstständig Texte schreiben, Bilder malen und Videos produzieren. Viele sprechen von einer Revolution in der Informationstechnik. Eine Revolution mit Risiken.

learngerman.dw.com

Wie gefährlich ist ChatGPT?

ChatGPT는 얼마나 위험한가?

Ein neuer Chatbot kann mit Künstlicher Intelligenz selbstständig Texte schreiben, Bilder malen und Videos produzieren. Viele sprechen von einer

Revolution in der Informationstechnik. Eine Revolution mit Risiken.

새로운 챗봇은 인공지능을 사용하여 스스로 글을 쓰고, 그림을 그리고, 비디오를 만들 수 있다.

많은 사람들이 정보 기술 혁명에 대해 말한다. 위험이 있는 혁명.

Wie erhält man in wenigen Sekunden einen Text, der sich so liest wie der

Schulaufsatz eines 14-Jährigen? Oder eine Geschichte im Stil von Goethe? Mit dem Chatbot ChatGPT, den die Firma OpenAI 2022 veröffentlicht hat, ist das kein Problem mehr. Seine Künstliche Intelligenz (KI) ist so weit entwickelt, dass sie selbstständig Texte aller Art schreibt und auch Bilder und Videos produziert. Die „Werke“, die dabei entstehen, sind denen von Menschen oft überraschend ähnlich.

어떻게 하면 몇 초 안에 14살의 학교 에세이와 같은 텍스트를 얻을 수 있을까? 아니면 Goethe 스타일의 이야기를? 기업 OpenAI가 2022년에 출시한 Chatbot ChatGPT는 더 이상 문제가 되지 않는다. 그의 인공지능(AI)은 모든 종류의 글을 독립적으로 쓰고 이미지와 비디오를 제작할 수 있도록 개발되었다. 그 과정에서 만들어진 작품들은 종종 놀랍게도 인간의 작품들과 비슷하다.

In der Fachwelt ist man überzeugt: Die so genannte generative KI von ChatGPT ist in der Lage, unser Leben zu revolutionieren. Die Entwicklung bietet große Chancen, ist aber auch mit Risiken verbunden: So fürchtet man an Universitäten bereits den „Tod der Hausarbeit“. Viele Menschen haben Angst, ihre Jobs zu verlieren, weil eine perfekte KI sie überflüssig machen könnte. Und auch Desinformation ist eine Gefahr – denn ChatGPT weiß nicht, ob seine Quellen stimmen, und erfindet sogar neue.

전문가들은 ChatGPT의 소위 생성 AI가 우리의 삶에 혁명을 일으킬 수 있다고 확신한다. 이러한 발전은

좋은 기회를 제공하지만 또한 위험과도 관련이 있다. 예를 들어, 대학들은 이미 "숙제의 죽음"을 두려워하고 있다. 완벽한 AI가 그들을 불필요하게 만들 수 있기 때문에 많은 사람들은 직장을 잃는 것을 두려워한다.

그리고 허위 정보 또한 위험하다. 왜냐하면 ChatGPT는 그것의 출처가 사실인지 아닌지 모르고 심지어 새로운 것을 만들어 내기 때문이다.

Allerdings wird bisher noch oft kritisiert, dass ChatGPT schablonenhaft schreibt. Denn die KI kann zwar sehr gut andere Texte imitieren, aber nicht selbst kreativ werden. ChatGPT tut eigentlich nichts anderes, als sehr gründlich Informationen aus dem Internet zu analysieren. Und dabei produziert der Chatbot auch Texte, die sich zwar gut lesen, aber bei genauem Hinsehen Unsinn sind.

그러나 지금까지 ChatGPT가 상투적으로 작성되었다는 비판이 종종 있었다. AI는 다른 텍스트를 매우 잘

모방할 수 있지만 스스로 창의적으로 될 수 없다. ChatGPT는 인터넷 정보를 매우 철저하게 분석하는 것 외에는 아무것도 하지 않는다. 그리고 챗봇은 읽기 쉽지만 자세히 들여다보면 말도 안 되는 텍스트를 만들어낸다.

Sam Altman, der Chef von OpenAI, hält die Angst vor seinem Chatbot zwar für unberechtigt, trotzdem sind wir aus seiner Sicht „nicht weit entfernt von Anwendungen, die potenziell gefährlich sind“. Viele fordern daher nun Gesetze für den Umgang mit generativer KI. Aber wer soll diese Regeln schreiben und wie sollen sie aussehen? Der Chatbot hat natürlich auch darauf eine Antwort: „ Es gibt vieleverschiedene Sichtweisen auf das Thema.“

OpenAI의 CEO인 Sam Altman은 챗봇에 대한 두려움이 정당화될 수 없다고 생각하지만, 그럼에도 불구하고 우리는 잠재적으로 위험한 애플리케이션에서 멀리 떨어져 있지 않다. 그러므로 많은 사람들은 현재 생성 AI를 다루기 위한 법을 요구하고 있다. 하지만 누가 이 규칙들을 쓰고 어떻게 보일까? 물론 챗봇은 이에 대한 답을 가지고 있다. :“그 주제에 대한 많은 다른 견해들이 있다.“

반응형