Податки та законодавство, Суспільство Автор: RomanK Друкувати

Адвоката судитимуть через використання ChatGPT

  • Джерело: finance.ua.  → Ключові теги: ChatGPT

    Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

    1245_5d03ac6782765.jpg (35.65 Kb)

    В чому суть справи?
    Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
    Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
    Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
    Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
    Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.
    Чому це цікаво?
    OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
    Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
    Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.



    ЧИТАЙТЕ ТАКОЖ:

Рекомендуємо

Команда Incrypted оголосила дату проведення Incrypted Conference 2024 Команда Incrypted оголосила дату проведення Incrypted Conference 2024
Криптомедіа Incrypted організовує один із найзнаковіших і наймасовіших криптоівентів уже вчетверте. Цього року Incrypted Conference відбудеться в нові...
Військторг – якісне спорядження за доступними цінами Військторг – якісне спорядження за доступними цінами
Військторг –  інтернет-магазин військового спорядження та амуніції. Пропонує великий вибір товарів для потреб військовослужбовців, мисливців та усіх, ...
Зустрічайте нову легенду - Lexus GX 2024 Зустрічайте нову легенду - Lexus GX 2024
З початком 2020-х років індустрія автомобілебудування переживає шалений період інновацій та електрифікації. У світі, де більше уваги приділяється смар...
Підписатись не коментуючи
E-mail:

День в фотографіях Всі фотографії

Актуальні теми Всі актуальні теми