Після придбання популярної мережі під назвою twitter.com одним підприємцем багато розумних людей, пости яких я відслідковував, цю мережу покинули. На жаль. Але не всі, а ті, хто залишився, видають таку «базу», як зараз кажуть, що своє писати не треба – просто бери і цитуй.
Так і зроблю (всі наступні цитати взяті з сайту x.com, переклад власний або з залученням Google translate, де довше).
Наприклад, ось таке.
Ole Ingemann Kjørmo (@oleingemann)
Nov 21, 2024
LLMs that code often think they're correct, even when they're not. Stay sharp in the driver's seat to spot the difference.
(«ВММ, що пишуть програми для комп’ютерів, часто вважають, що вони праві, навіть коли це не так. Не зменшуйте увагу, щоб щось не проґавити»)
Або таке.
Andriy Burkov (@burkov)
Nov 21, 2024
Hallucinations in LLMs aren't similar to human creativity. They are rather similar to Tourette's syndrome.
(«Марення ВММ не схожі на людську творчість. Скоріше – на синдром Туретта»)
І нарешті – ось таке.
Andriy Burkov (@burkov)
Nov 12, 2024
LLMs are so easy to train, but only if you have enough cash. Most people don't have that much cash, so they think there's something complex happening there. Altman and Amodei can talk any nonsense about AGI coming soon and people will trust because they don't have enough cash to see that emperor has no clothes.
(«ВММ дуже легко навчити, але тільки якщо у вас багато грошей. У більшості людей стільки готівки нема, і тому вони вважають що там відбувається щось складне. Альтман і Амодей можуть казати про загальний штучний інтелект будь-яку нісенітницю, а люди будуть вірити, бо в них немає достатньо грошей, щоб переконатися, що король – голий»).
Щоб мене не записали в сучасні луддити, надам трохи іншу цитату вже цитованого автора:
Andriy Burkov (@burkov)
Nov 18, 2024
If we remove all the lies about LLMs like agents, computer control, path to AGI, etc. What remains? A lot!
1. Code completion:
2. Fully autonomous code generation paired with unit-tests for automated code validation:This doesn't cover all possible use cases. For example, it will never generate an interactive mobile app that works 100%. But still it's for huge time savings it brings to the software industry.
3. Conversation-based UI for a collection of documents (aka RAG)
4. Finetuning for downstream tasks based on text-in, tex-out or text and image-in, text-out
5. Document draft generation:
6. Brainstorming:
7. Q&A where an error is not critical or answer validation by a human is trivial compare to asking the human to write the answer
8. Synthetic data generation, data labeling:
9. Error or outlier search in complex information systems
«Якщо ми приберемо всю брехню про LLM, як-от агенти, комп’ютерний контроль, шлях до AGI тощо. Що залишиться? багато!
1. Доповнення коду:
2. Повністю автономне створення коду в поєднанні з модульними тестами для автоматизованої перевірки коду: Це не охоплює всі можливі випадки використання. Наприклад, він ніколи не створить інтерактивний мобільний додаток, який працює на 100%. Але все одно це завдяки величезній економії часу для індустрії програмного забезпечення.
3. Інтерфейс користувача на основі розмови для колекції документів (він же RAG - Retrieval-augmented generation або Генерація з доповненим пошуком)
4. Точне налаштування для подальших завдань на основі введення тексту, виведення тексту або введення тексту та зображення, виведення тексту
5. Створення чернетки документа:
6. Мозковий штурм:
7. Запитання та відповіді, де помилка не критична або перевірка відповіді людиною тривіальна порівняно з проханням людини написати відповідь
8. Генерація синтетичних даних, маркування даних:
9. Пошук помилок або відхилень від норми у складних інформаційних системах».
На цій доволі оптимістичній ноті можна зупинитися. А чому справи – саме такі, а не інші, відповідь також є. Наступним разом.