Податки та законодавство, Суспільство Автор: RomanK Друкувати

Адвоката судитимуть через використання ChatGPT

  • Джерело: finance.ua.  → Ключові теги: ChatGPT

    Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

    1245_5d03ac6782765.jpg (35.65 Kb)

    В чому суть справи?
    Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
    Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
    Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
    Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
    Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.
    Чому це цікаво?
    OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
    Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
    Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.



    ЧИТАЙТЕ ТАКОЖ:

    Рекомендуємо

    Імміграційний адвокат Альона Шевцова: ОАЕ спрощують імміграційне законодавство Імміграційний адвокат Альона Шевцова: ОАЕ спрощують імміграційне законодавство
    Об'єднані Арабські Емірати (ОАЕ) кардинально оновили свою візову політику. Імміграційні адвокати вважають, що ці зміни можуть перетворити ОАЕ на о...
    Трамп готує жорсткі санкцій проти рф Трамп готує жорсткі санкцій проти рф
    Президент США Дональд Трамп готовий підписати двопартійний законопроект про нові санкції проти Росії, які передбачають запровадження 500% мит щодо кра...
    Zero Trust без потрясінь: як перейти на нову модель кіберзахисту без ризику для бізнесу Zero Trust без потрясінь: як перейти на нову модель кіберзахисту без ризику для бізнесу
    Уявіть: кожен запит доступу до ресурсів вашої компанії перевіряється ретельно, незалежно від того, хто і звідки намагається підключитися. Цю ідею покл...
    Підписатись не коментуючи
    E-mail:

    День в фотографіях Всі фотографії

    Актуальні теми Всі актуальні теми