Податки та законодавство, Суспільство Автор: RomanK Друкувати

Адвоката судитимуть через використання ChatGPT

  • Джерело: finance.ua.  → Ключові теги: ChatGPT

    Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

    1245_5d03ac6782765.jpg (35.65 Kb)

    В чому суть справи?
    Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
    Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
    Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
    Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
    Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.
    Чому це цікаво?
    OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
    Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
    Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.



    ЧИТАЙТЕ ТАКОЖ:

Рекомендуємо

Мед з горіхами: смачне поєднання для здоров'я та задоволення Мед з горіхами: смачне поєднання для здоров'я та задоволення
Мед та горіхи - це не лише смачні делікатеси, але й корисні продукти, багаті поживними речовинами. Їх комбінація створює ідеальне поєднання смаку, аро...
Магазин Магазин "Аквадом": Ваш путь к здоровью и благополучию
В современном мире одним из важнейших аспектов заботы о здоровье является качество потребляемой воды. Ведь вода играет ключевую роль в поддержании жиз...
Ідеальний вибір для сім'ї: огляд Volvo EX30 Ідеальний вибір для сім'ї: огляд Volvo EX30
Коли справа доходить до вибору автомобіля для сім'ї, безпека та комфорт стоять на першому місці. Однак не менш важливими є стиль та екологічність. З у...
Підписатись не коментуючи
E-mail:

День в фотографіях Всі фотографії

Актуальні теми Всі актуальні теми