Laravel World
8.45K subscribers
1.25K photos
25 videos
9 files
2.07K links
Laravel & PHP news
Download Telegram
Релиз PHP 8.4.10, 8.3.23, 8.2.29 и 8.1.33
Исправление трёх уязвимостей
https://www.php.net/ChangeLog-8.php
17
Релиз PHP 8.5.0 Alpha 1
Это первый тестовый билд новой версии языка.
https://www.php.net/archive/2025.php#2025-07-03-5
32
PHP и Laravel дайджест новостей за июнь 2025 года
https://habr.com/ru/articles/925064/
20
19
Как интегрировать Google Cloud Storage в Laravel
https://www.luckymedia.dev/blog/how-to-integrate-google-cloud-storage-with-laravel
24
Forwarded from opennet.ru
PHP намерены перевести на лицензию BSD-3, совместимую с GPL

Разработчики языка программирования PHP планируют перевести интерпретатор PHP и движок Zend Engine с лицензий PHP License и Zend Engine License на 3-пунктовую лицензию BSD. Переход на 3-пунктовую лицензию BSD упростит условия лицензирования, унифицирует лицензии для PHP и Zend Engine, обеспечит совместимость с GPL и решит давние проблемы, сохранив при этом все права пользователей и разработчиков. Смену лицензии намерены произвести в выпуске PHP 9.0, который может быть сформирован в следующем году. Все члены PHP Group одобрили смену лицензии и в настоящее время данное предложение выставлено на общее обсуждение.

https://www.opennet.ru/opennews/art.shtml?num=63580
40
Forwarded from The Dragon Code News
4 дня назад вышел новый стандарт стиля кода - PER-CS v3.0

Документ миграции с версии PER-CS 2.0 можно найти здесь.

https://github.com/php-fig/per-coding-style/releases/tag/3.0.0
31
13
Forwarded from The Dragon Code News
🚀 Быстрый запуск локального ИИ ассистента в PhpStorm

Для этого Вам нужна видеокарта с RTX ядрами от NVidia или RDNA от Radeon, иначе скорость работы нейронки будет низкой.

Также нужен Docker.


Теперь можно выполнить консольные команды:

docker run -d -p 11434:11434 --gpus=all -v ollama:/root/.ollama --name ollama --restart always ollama/ollama

docker exec ollama ollama run gemma3:12b


где gemma3:12b - это модель и её размер с сайта Ollama. Размер модели выбирайте не больше размера видеопамяти. Например, в карточке с 12 Гб VRAM самой большой моделью будет gemma3:12b иначе все вычисления лягут на CPU, а это очень-очень медленно. Если не нравится модель gemma3, тогда можете выбрать любую другую на сайте.

После того как запустили Ollama в докере и загрузили в неё модель, устанавливаем плагин ProxyAI в PhpStorm (раньше плагин назывался CodeGPT) и легко настраиваем.

Настройки плагина находятся в разделе File | Settings | Tools | ProxyAI.

1. Выбираем провайдер "Ollama (local)";
2. В разделе "Ollama (local)" жмём кнопку "Refresh models" для обновления списка доступных моделей и выбора нужной.

Нюанс один - не все модели отвечают на русском языке. Например, gemma3 принципиально отвечает только по-английски, хотя понимает русский язык.
35
whereValueBetween() в Laravel 12.21
44