Школьный стол трансформер: Письменный стол трансформер для школьника
Содержание
Письменный стол трансформер поворотный в Энгельсе: 271-товар: бесплатная доставка, скидка-35% [перейти]
Партнерская программаПомощь
Энгельс
Каталог
Каталог Товаров
Одежда и обувьОдежда и обувь
СтройматериалыСтройматериалы
Текстиль и кожаТекстиль и кожа
Здоровье и красотаЗдоровье и красота
Детские товарыДетские товары
Продукты и напиткиПродукты и напитки
ЭлектротехникаЭлектротехника
Дом и садДом и сад
Торговля и складТорговля и склад
ПромышленностьПромышленность
Мебель и интерьерМебель и интерьер
Все категории
ВходИзбранное
10 600
Деревянный письменный стол—трансформер Витра Орфей-1.2 (Ясень Шимо темный)
В МАГАЗИНДеревянный письменный стол—трансформер Витра Орфей-8 (Венге)
В МАГАЗИН-59%
4 246
10470
Письменный стол Феликс, трансформер раскладной угловой с тумбой, полкой, для компьютера и учёбы, 120х50х75 см
В МАГАЗИН-55%
5 292
11757
Компьютерный стол Феликс, трансформер раскладной угловой с тумбой, полкой, для компьютера и учёбы, 115х50х75 см
В МАГАЗИН-55%
4 733
10454
Компьютерный стол Феликс, трансформер раскладной угловой с тумбой, полкой, для компьютера и учёбы, 120х50х75 см
В МАГАЗИН-38%
16 103
26020
Стол письменный растущий Dunga / Детская парта для школьника трансформер с 1 по 11 класс, белый/серый
В МАГАЗИНСтол письменный, кухонный, настенный, откидной, обеденный, компьютерный, школьный, рабочий для гостиной, спальни, детской комнаты деревянный складной, раскладной, трансформер в столовую, гостинную, на кухню, веранду, балкон, мебель дома, лоджии
В МАГАЗИН-38%
16 103
26020
Стол письменный растущий Dunga / Детская парта для школьника трансформер с 1 по 11, клен/серый Тип:
В МАГАЗИН-12%
3 137
3573
Стол письменный, кухонный, настенный, откидной, обеденный, компьютерный, школьный, рабочий для гостиной, спальни, детской комнаты деревянный складной, раскладной, трансформер в столовую, гостинную, на кухню, веранду, балкон, мебель дома, лоджии
В МАГАЗИН-33%
8 245
12345
Стол обеденный книжка / письменный с ящиками складной-раскладной, тумба-трансформер, модель Неаполь 38. 2х78х75.5 см
В МАГАЗИН Письменный стол трансформерстол трансформер поворотныйСтол письменный, кухонный, настенный, откидной, обеденный, компьютерный, школьный, рабочий для гостиной, спальни, детской комнаты деревянный складной, раскладной, трансформер в столовую, гостинную, на кухню, веранду, балкон, мебель дома, лоджии
В МАГАЗИНСтол письменный, кухонный, настенный, откидной, обеденный, компьютерный, школьный, рабочий для гостиной, спальни, детской комнаты деревянный складной, раскладной, трансформер в столовую, гостинную, на кухню, веранду, балкон, мебель дома, лоджии
В МАГАЗИН-22%
12 610
16200
Письменный стол трансформер Живи Стоя Upland 7in1 Тип: Письменный стол, Размер: Длина 156.000
В МАГАЗИН-22%
12 610
16200
Письменный стол трансформер Живи Стоя Upland 7in1 Тип: Письменный стол, Размер: Длина 156. 000
В МАГАЗИН-22%
12 610
16200
Письменный стол трансформер Живи Стоя Upland 7in1 Тип: Письменный стол, Размер: Длина 156.000
В МАГАЗИН-22%
12 610
16200
Письменный стол трансформер Живи Стоя Upland 7in1 Тип: Письменный стол, Размер: Длина 156.000
В МАГАЗИНСтол маникюрный складной с полками трансформер /письменный для подростка / школьника Юг Комфорт
ПОДРОБНЕЕСтол маникюрный складной с ящиками трансформер /письменный для подростка / школьника / ЮгКомфорт
ПОДРОБНЕЕСтол маникюрный складной с полками трансформер /письменный для подростка / школьника ЮгКомфорт
ПОДРОБНЕЕСтол маникюрный складной с полками трансформер /письменный для подростка / школьника Юг Комфорт
ПОДРОБНЕЕСтол маникюрный складной с полками трансформер /письменный для подростка / школьника Юг Комфорт
ПОДРОБНЕЕ10 490
Стол—трансформер письменный Polini kids Mirum 1440, серый-белый Производитель: Polini Kids, Тип
ПОДРОБНЕЕСтол трёхуровневый трансформер «Марс» / обеденный стол, письменный, туалетный с полкой, компьютерный стол, в детскую комнату столик
ПОДРОБНЕЕСтол обеденный книжка / письменный с ящиками складной-раскладной деревянный Неаполь, тумба-трансформер, 38. 2х78х75.5 см
ПОДРОБНЕЕСтол школьный письменный с полками трансформер Тип товара: компьютерный стол, Глубина: 110.5 см,
ПОДРОБНЕЕ12 220
Письменный стол для двоих Дублин-9 Производитель: Бэст-Мебель, Тип товара: письменный стол
ПОДРОБНЕЕ14 400
Стол—трансформер письменный Polini kids Mirum 1446 высокий с полкой, белый/двери белые
ПОДРОБНЕЕ15 451
Стол письменный растущий Dunga / Детская парта для школьника / Парта трансформер с 1 по 11 класс, белый/серый
ПОДРОБНЕЕ2 страница из 33
Письменный стол трансформер поворотный
Поиск — По тегу —
Поиск:Все категорииКресла Кресла руководителя Игровые кресла Кресла оператора Детские кресла Кресла с нагрузкой до 200 кгСтулья и столы Стулья офисные Столы на хромированном каркасе Стулья барные Стулья для кухни и кафе Стулья на металле Стулья на хроме ЛавкиШкольная мебель Столы ученические Стулья ученическиеОфисные диваныАксессуары и запчасти Аксессуары Вешалки Обивочные материалы Крестовины Газпатроны Ролики и заглушки Механизмы Винты ПодлокотникиЖалюзи Жалюзи горизонтальные Жалюзи вертикальныеРемонт кресел Перетяжка мебели Замена механизмов
Поиск в подкатегориях
Искать в описании товаров
Сортировка: По умолчаниюНазвание (А — Я)Название (Я — А)Цена (низкая > высокая)Цена (высокая > низкая)Рейтинг (начиная с высокого)Рейтинг (начиная с низкого)Модель (А — Я)Модель (Я — А)
Показать: 15255075100
Кресло BP-8
Офисное эргономичное кресло Метта BP-8 PL. Оригинальные тканевые модели, которые заслужили только по..
7500р.
Кресло CH-296AXSN
Эргономичное кресло оператора с сетчатой спинкой Изо-G 505 Лайт. Современная и компактная модель для..
2950р.
Кресло Ch-330M
Офисное кресло CH-330M.Модель нашего производства для офиса и дома, благодаря инновационной спинке п..
5530р.
Кресло CH-W356AXSN
Детское компьютерное кресло Бюрократ CH-W356AXSN.Оригинальная модель для школьника. Спинка с сеткой ..
4798р.
Кресло CP-6
Эргономичное компьютерное кресла для офиса СР-6.Удобная модель с невысокой мягкой спинкой.Благодаря ..
8563р.
Кресло FK-8PL
Комфортное кресло оператора с сетчатой спинкой Metta FK-8PL. Удобная модель серии COMFORT сочетает..
5825р.
Кресло Lark 696
Офисное кресло оператора с сетчатой эргономичной спинкой 696. Модель нового поколения нашего произво..
4290р.
Кресло Lark 696 White
Компьютерное кресло на белом пластике с сетчатой спинкой — Lark.Одна из модификаций этой эргономично..
4700р.
Кресло SAMURAI S-2.02
Кресло руководителя Самурай 2 с регулируемым подголовником Офисное кресло Метта Самурай порадует св..
22960р.
Кресло Samurai SL-1
Офисное кресло Метта Самурай. Эта оригинальная и невероятно высокотехнологичная модель порадует св..
22510р.
Кресло SK-1-BK, комплект 7
Эргономичное офисное кресло SK-1BK, с сетчатой спинкой. Эта модель пришла на смену популярного Skyli..
11580р.
Кресло SK-1-BK, комплект 9
Офисное эргономичное сетчатое кресло SK-1-BK 9. Новая модель с низкой спинкой, оснащенная совре..
11270р.
Кресло Star (Стар) Egida
Кресло детское для работы за компьютером Стар Отличная модель для школьника в ткани ярких расцветок..
2360р.
Кресло Star (Стар) White флок
Детские компьютерные кресла на белом пластике Стар. Яркая модель в ткани флок разнообразной тематики…
2915р.
Кресло Star (Стар) кожзам
Детское компьютерное кресло Логика (Стар). Компактная и очень популярная модель — Star, несмо..
2360р.
Кресло Star (Стар) ткань
Кресло детское без подлокотников Logica (Стар) в офисной тканиЭта компактная модель отлично подойдет..
2200р.
Кресло Star (Стар) флок
Детское компьютерное кресло Star для школьника. «Стар» имеет множество вариантов яркой расцветки.Тка..
2360р.
КРЕСЛО SU-BM-10
Кресло офисное сетчатое SU-BU158-10 Метта.Новая модификация популярной модели BK-8 оснащенная подлок. .
8530р.
КРЕСЛО SU-BM-8
Кресло Метта с т-образными подлокотниками SU-BM-8Серия SU от российского производителя — это:*эргоно..
7700р.
Кресло SU-CM-10
Компактное компьютерное кресло Метта — SU-CM-10.Отличная модель для небольших офисов и домашних каби..
7660р.
Кресло SU-CM-8P
Кресло оператора SU-CM-8P Метта. Стильная современная модель из уникального материала — армиро..
7150р.
Кресло Аполло
Офисное кресло Аполло. Классический стиль и потрясающий комфорт вашего офиса создаст мягкая меб..
11980р.
Кресло Атлант пласт экокожа
Офисное кресло руководителя Атлант на пластике Классическая модель для руководителя оригинального ди. .
9200р.
Показано с 51 по 75 из 235 (всего 10 страниц)
Как объединить табличные данные с преобразователями HuggingFace
Модели на основе Transformer меняют правила игры, когда речь идет об использовании неструктурированных текстовых данных. По состоянию на сентябрь 2020 года самыми эффективными моделями в тесте General Language Understanding Evaluation (GLUE) являются все модели на основе преобразователя BERT. В Georgian мы работаем с вспомогательной информацией о табличных функциях, а также с неструктурированными текстовыми данными. Мы обнаружили, что, используя табличные данные в наших моделях, мы можем еще больше повысить производительность, поэтому мы решили создать набор инструментов, который позволит другим делать то же самое.
9 задач, которые являются частью теста GLUE.
Построение поверх трансформеров
Основные преимущества использования трансформеров заключаются в том, что они могут изучать долгосрочные зависимости между текстом и могут обучаться параллельно (в отличие от моделей последовательностей), что означает, что они могут предварительно обучаться на больших объемах данных.
Учитывая эти преимущества, BERT теперь является основной моделью во многих реальных приложениях. Точно так же с такими библиотеками, как HuggingFace Transformers, легко создавать высокопроизводительные модели преобразователей для решения общих задач NLP.
Модели преобразования, использующие неструктурированные текстовые данные, хорошо изучены. Однако в реальном мире текстовые данные часто поддерживаются богатыми структурированными данными или другими неструктурированными данными, такими как звуковая или визуальная информация. Каждый из них может подавать сигналы, которых не может дать один. Мы называем эти разные способы восприятия данных — звуковые, визуальные или текстовые — модальностями.
В качестве примера рассмотрим обзоры электронной коммерции. В дополнение к самому тексту отзыва у нас также есть информация о продавце, покупателе и продукте, доступная в виде числовых и категориальных признаков.
Мы решили изучить, как мы могли бы использовать текстовые и табличные данные вместе, чтобы обеспечить более сильные сигналы в наших проектах. Мы начали с изучения области, известной как мультимодальное обучение, которая фокусируется на том, как обрабатывать различные модальности в машинном обучении.
Обзор мультимодальной литературы
Существующие модели мультимодального обучения в основном сосредоточены на обучении с помощью сенсорных модальностей, таких как аудио, визуальные и текстовые.
В мультимодальном обучении есть несколько направлений исследований. Лаборатория MultiComp в Университете Карнеги-Меллона предоставляет превосходную таксономию. Наша проблема подпадает под так называемую Мультимодальное слияние — объединение информации из двух или более модальностей для составления прогноза.
Поскольку текстовые данные являются нашей основной модальностью, наш обзор сосредоточен на литературе, в которой текст рассматривается как основная модальность, и представлены модели, использующие архитектуру преобразователя.
Простое решение для структурированных данных
Прежде чем мы углубимся в литературу, стоит упомянуть, что существует простое решение, которое можно использовать, когда структурированные данные обрабатываются как обычный текст и добавляются к стандартным текстовым вводам. Взяв пример обзоров электронной коммерции, входные данные можно структурировать следующим образом: Обзор. Информация о покупателе. Информация о продавце. Цифры/этикетки. И т. д. Однако в этом подходе есть одно предостережение: он ограничен максимальной длиной токена, с которой может работать преобразователь.
Transformer для изображений и текста
За последние пару лет расширения Transformer для изображений и текста действительно продвинулись вперед. Контролируемые мультимодальные битрансформаторы для классификации изображений и текста Киела и др. (2019) использует предварительно обученные функции ResNet и предварительно обученные функции BERT для одномодальных изображений и текста соответственно и передает их в двунаправленный преобразователь. Ключевым нововведением является адаптация признаков изображения в качестве дополнительных токенов к модели-трансформеру.
Иллюстрация мультимодального трансформатора. Эта модель использует выходные данные ResNet для субрегионов изображения в качестве токенов входного изображения.
Кроме того, существуют модели — ViLBERT (Lu et al., 2019) и VLBert (Su et al., 2020), которые определяют задачи предварительной подготовки для изображений и текста. Обе модели предварительно обучаются на наборе данных Conceptual Captions, который содержит примерно 3,3 миллиона пар изображений и подписей (веб-изображения с подписями из альтернативного текста). В обоих случаях для любого заданного изображения предварительно обученная модель обнаружения объектов, такая как Faster R-CNN, получает векторные представления для областей изображения, которые считаются встраиванием входных токенов в модель преобразователя.
Схема модели VLBert. Он принимает области изображения, выведенные Faster R-CNN, в качестве токенов входного изображения.
Например, ViLBert выполняет предварительную подготовку по следующим целям обучения:
- Маскированное мультимодальное моделирование: Маскирование входных изображений и токенов слов. Для изображения модель пытается предсказать векторные характеристики изображения для соответствующей области изображения, а для текста она предсказывает замаскированный текст на основе текстовых и визуальных подсказок.
- Мультимодальное выравнивание: Является ли пара изображения и текста фактически одной и той же парой изображения и подписи.
Два предтренировочных задания для ViLBert.
Пример замаскированного мультимодального обучения. Учитывая изображение и текст, если мы замаскируем dog , тогда модель сможет использовать немаскированную визуальную информацию, чтобы правильно предсказать замаскированное слово как dog .
Все эти модели используют модель двунаправленного трансформатора, которая является основой BERT. Различия заключаются в предтренировочных задачах, на которых обучаются модели, и в небольших дополнениях к преобразователю. В случае ViLBERT авторы также вводят слой преобразователя совместного внимания (показан ниже), чтобы явно определить механизм внимания между модальностями.
Стандартный блок трансформатора против блока преобразователя совместного внимания. Блок совместного внимания вводит взвешенные по вниманию векторы другой модальности (например, лингвистической) в скрытые репрезентации текущей модальности (визуальной).
Наконец, есть еще LXMERT (Tan and Mohit 2019), еще одна предварительно обученная модель трансформатора, которая, начиная с Transformers версии 3.1.0, реализована как часть библиотеки. Входные данные для LXMERT такие же, как для ViLBERT и VLBERT. Однако LXMERT предварительно обучается на агрегированных наборах данных, которые также включают в себя наборы данных с визуальными ответами на вопросы. В общей сложности LXMERT предварительно обучает 9,18 миллиона пар изображений и текста.
Трансформаторы при выравнивании аудио, изображения и текста
Помимо преобразователей для объединения изображения и текста, существуют мультимодальные модели для аудио, видео и текстовых модальностей, в которых существует естественное временное выравнивание истинной земли. Документы для этого подхода включают MulT, Мультимодальный преобразователь для невыровненных мультимодальных языковых последовательностей (Tsai et al. 2019) и Multimodal Adaptation Gate (MAG) из Integrating Multimodal Information in Large Pretrained Transformers (Rahman et al. 2020).
MuIT похож на ViLBert, в котором совместное внимание используется между парами модальностей. MAG, тем временем, вводит другую информацию о модальности на определенных слоях преобразователя через механизм стробирования.
Трансформеры с встраиванием текста и графов знаний
В некоторых работах графы знаний также определены как важная часть информации в дополнение к текстовым данным. Обогащение BERT с помощью вложений графа знаний для классификации документов (Остендорф и др., 2019) использует функции авторских сущностей в графе знаний Викиданных в дополнение к функциям метаданных для классификации категорий книг. В этом случае модель представляет собой простую конкатенацию этих функций, а выводимые BERT текстовые функции названия книги и описания перед некоторыми окончательными слоями классификации.
Простая архитектура модели для включения вложений графов знаний и табличных метаданных.
С другой стороны, ERNIE (Zhang et al. 2019) сопоставляет токены во входном тексте с объектами в графе знаний. Они объединяют эти вложения для создания встраивания текста с поддержкой сущностей и встраивания сущностей с поддержкой текста с этим соответствием.
Ключевой вывод
Основной вывод при адаптации преобразователей для мультимодальных данных заключается в обеспечении внимания или механизма взвешивания между различными модальностями. Эти механизмы внимания могут возникать в разных точках архитектуры преобразователя, как закодированные входные вложения, вставленные в середине или объединенные после того, как преобразователь кодирует текстовые данные.
Набор инструментов для мультимодальных трансформаторов
Используя то, что мы узнали из обзора литературы и обширной библиотеки современных трансформаторов HuggingFace, мы разработали набор инструментов. Пакет multimodal-transformers расширяет возможности любого преобразователя HuggingFace для табличных данных. Код, документацию и рабочие примеры можно найти в репозитории проекта.
На высоком уровне выходные данные модели преобразования текстовых данных и табличных признаков, содержащих категориальные и числовые данные, объединяются в модуле объединения. Поскольку в наших данных нет выравнивания, мы решили объединить текстовые функции после вывода преобразователя. Модуль объединения реализует несколько методов для интеграции модальностей, включая методы внимания и стробирования, вдохновленные литературным обзором. Более подробная информация об этих методах доступна здесь.
Схема высокого уровня мультимодальных трансформаторов. Адаптация преобразователей для включения данных полностью содержится в модуле объединения.
Пошаговое руководство
Давайте рассмотрим пример, в котором мы классифицируем рекомендации по обзору одежды. Мы будем использовать упрощенную версию примера, включенного в блокнот Colab. Мы будем использовать обзоры женской одежды для электронной коммерции от Kaggle, которые содержат 23 000 отзывов покупателей.
Образец набора данных обзора одежды.
В этом наборе данных у нас есть текстовые данные в столбцах Title и Review Text. У нас также есть категориальные характеристики из столбцов ID одежды, названия подразделения, названия отдела и названия класса , а также числовые характеристики из Rating and Positive Feedback Count.
Загрузка набора данных
Сначала мы загружаем наши данные в TorchTabularTextDataset , который работает с загрузчиками данных PyTorch, которые включают ввод текста для HuggingFace Transformers и указанные нами столбцы категориальных функций и столбцы числовых функций. Для этого нам также нужно загрузить наш токенизатор HuggingFace.
Загрузка трансформатора табличной моделью
Теперь мы загружаем наш трансформатор табличной моделью. Сначала мы указываем наши табличные конфигурации в объекте TabularConfig . Затем эта конфигурация устанавливается как tabular_config переменная-член объекта конфигурации преобразователя HuggingFace. Здесь мы также указываем, как мы хотим объединить табличные функции с текстовыми функциями. В этом примере мы будем использовать метод взвешенной суммы.
После того, как у нас есть набор tabular_config , мы можем загрузить модель, используя тот же API, что и HuggingFace. См. в документации список поддерживаемых в настоящее время моделей трансформаторов, включающих табличный комбинированный модуль.
Обучение
Для обучения мы можем использовать учебный класс HuggingFace. Нам также нужно указать аргументы обучения, и в этом случае мы будем использовать значение по умолчанию.
Давайте посмотрим на наших моделей на тренировке!
Tensorboard записывает данные вышеописанного эксперимента. Вы также можете проверить этот Tensorboard здесь.
Результаты
С помощью этого набора инструментов мы также провели эксперименты с набором данных Women’s E-Commerce Clothing Reviews для прогнозирования рекомендаций и набором данных Melbourne Airbnb Open Data для прогнозирования цен. Первая — это задача классификации, а вторая — задача регрессии. Наши результаты в таблице ниже. text_only Метод объединения — это базовая линия, в которой используется только преобразователь, и по существу она аналогична модели HuggingFace forSequenceClassification .
Мы видим, что включение табличных функций повышает производительность по сравнению с методом text_only . Прирост производительности зависит от того, насколько сильны обучающие сигналы из табличных данных. Например, в случае с рекомендацией обзора модель text_only уже является надежной базой.
Следующие шаги
Мы уже успешно использовали этот инструментарий в наших проектах. Не стесняйтесь попробовать это в своем следующем проекте машинного обучения!
Ознакомьтесь с документацией и включенным основным сценарием, чтобы узнать, как выполнять оценку и вывод. Если вам нужна поддержка вашего любимого трансформера, не стесняйтесь добавлять сюда поддержку трансформера.
Приложение
Читатели должны ознакомиться с Иллюстрированным трансформатором и Иллюстрированным BERT, чтобы получить подробный обзор трансформаторов и BERT.
Ниже вы найдете краткую классификацию статей, которые мы рассмотрели.
Трансформатор изображения и текста
- Контролируемые мультимодальные битрансформеры для классификации изображений и текста (Kiela et al. 2019)
- ViLBERT: предварительная подготовка визуально-лингвистических представлений, не зависящих от задач, для задач на зрение и язык (Lu et al., 2019)
- VL-BERT: предварительная подготовка общих визуально-лингвистических представлений (Su et al. ICLR 2020)
- LXMERT: изучение кросс-модальных представлений кодировщика от преобразователей (Tan et al. EMNLP 2019)
Трансформаторы для выравнивания аудио, изображений и текста
- Мультимодальный преобразователь для невыровненных мультимодальных языковых последовательностей (Tsai et al. ACL 2019)
- Интеграция мультимодальной информации в большие предварительно обученные трансформаторы (Rahman et al. ACL 2020)
Преобразователи с вложениями графов знаний
- Дополнение BERT вложениями графов знаний для классификации документов (Ostendorff et al. 2019)
- ERNIE: расширенное языковое представление с информативными объектами (Чжан и др., 2019)
Оригинал. Перепечатано с разрешения.
Биография: Кен Гу — стажер прикладных исследований в компании Georgian, где он работает над различными инициативами в области прикладного машинного обучения. Он получил степень бакалавра компьютерных наук и степень по математике в Калифорнийском университете в Лос-Анджелесе. В Калифорнийском университете в Лос-Анджелесе Кен работал над исследовательскими проектами в области глубокого обучения Graph, уделяя особое внимание сетям биомедицинского взаимодействия.
Связанный:
- Глубокое погружение в архитектуру трансформатора – разработка моделей трансформатора
- Интуитивное объяснение и визуализация всех сложных манипуляций с фреймами данных
- Руководство по исследованиям трансформаторов
Выбор трансформаторов для коммерческих зданий | Consulting
Трансформаторы, наряду с другим оборудованием для распределения электроэнергии, остаются основным компонентом распределительных систем для коммерческих зданий. В этой статье представлено несколько полезных концепций проектирования для выбора и определения размеров трансформаторов при проектировании электрических систем для коммерческих зданий.
Трансформаторы изменяют уровни напряжения, чтобы снабжать электрические нагрузки требуемым напряжением. Они обеспечивают необходимое входящее электроснабжение зданий. Первичное и вторичное напряжение трансформатора может быть 2400; 4160; 7200; 12 470; и 13 200 для класса 15 кВ и 120, 208, 240, 277 и 480 для класса 600 В.
Трансформаторы располагаются либо снаружи, либо внутри зданий в электрощитовой или других местах, разрешенных нормами. Электрические фазовые характеристики, связанные с первичной стороной трансформатора, являются 3-фазными, 3-проводными или соединенными треугольником. Вторичная обмотка 3-фазная, 4-проводная или звезда.
Типы конструкции
Существуют различные типы конструкции трансформаторов, используемых в коммерческих зданиях. Наше понимание их общих характеристик позволит проектировщику и конечному пользователю сделать правильный выбор для применения в электрической системе. Ниже приведены некоторые из типов трансформаторов, доступных в отрасли, а также некоторые их характеристики:
Вентилируемые сухие трансформаторы вентилируются воздухом, требуют большего пространства для зазора и используют различные изоляционные материалы для повышения диэлектрической прочности. воздух. Они содержат кожух вокруг обмоток для их механической защиты и безопасности персонала. Этот тип является наиболее распространенным для использования в распределительных сетях внутри зданий. См. Таблицу 1 для типичных номинальных характеристик, размеров и веса сухих трансформаторов.
Герметичные сухие трансформаторы аналогичны сухим трансформаторам по большинству своих характеристик. Разница в том, что они содержат закрытый резервуар с азотом или другим диэлектрическим газом для защиты обмоток. Они могут быть установлены на улице или в помещении. Они полезны в областях с агрессивной или грязной атмосферой.
Трансформаторы с литой катушкой имеют первичную и вторичную обмотки, залитые армированной смолой. Они могут быть установлены там, где присутствует влага или загрязняющие вещества в воздухе.
Невентилируемые сухие трансформаторы аналогичны вентилируемым трансформаторам, но полностью закрыты. Этот тип может быть установлен в местах с коррозионными или грязными атмосферными условиями, где было бы невозможно использовать трансформатор вентилируемого типа.
Масляные трансформаторы имеют обмотки, заключенные в маслонепроницаемый бак, заполненный изолирующим минеральным маслом. Хорошей практикой является регулярное тестирование трансформатора этого типа для определения пробоя диэлектрика, влияющего на срок его службы.
Типы применения
Существуют различные способы установки и использования трансформаторов как части электрической системы коммерческого здания. Эти типы приложений включают в себя:
Внутренние распределительные трансформаторы используются с щитами и монтируются отдельно для обеспечения определенных требований к электрической нагрузке в конкретном приложении внутри системы распределения. Некоторые типы трансформаторов с номинальным напряжением более 600 В для масляной изоляции, более 35 000 В для сухого типа и другие трансформаторы с номинальным напряжением более 600 В должны быть размещены в хранилищах, которые должны быть оборудованы огнестойкими кожухами в зависимости от тип трансформатора и применимые требования местных органов власти, если он находится в помещении. Трансформаторы, напряжение которых не превышает 600 В и которые являются частью распределительной сети внутри здания, имеют как первичное, так и вторичное напряжение ниже 600 В, при этом наиболее распространенное изменение уровня напряжения составляет от 480 В до 208 Y/120 В.
Трансформаторы , монтируемые на плите, устанавливаются снаружи и считаются первым вариантом для подачи служебного входного напряжения в электрическую систему здания в зависимости от размера проекта и требований. Как правило, они имеют первичное напряжение выше 600 В и вторичное напряжение ниже 600 В с отсеками для соответствующих защитных устройств, собранных в единый защищенный от несанкционированного доступа и атмосферостойкий блок.
Кроме того, размер коммерческого объекта будет определять соответствующий подход к проектированию системы распределения электроэнергии для конкретного применения. В этой конструкции электрической системы трансформатор может использоваться как часть подстанции, подстанции первичного блока, подстанции вторичного блока или сетевой конфигурации.
Типоразмер
Электрическая мощность нагрузки трансформатора указана в кВА. Этот рейтинг обеспечивает соответствующую выходную мощность, выдаваемую в течение определенного периода нагрузками, подключенными к трансформатору на вторичной стороне оборудования. Нагрузки, которые рассчитываются на этапе проектирования электрической системы здания, показаны в соответствующих таблицах оборудования в строительной документации в ВА или кВА.
Общий подход к определению мощности трансформатора и выбору надлежащего номинала для расчетного приложения заключается в получении расчетной расчетной нагрузки из соответствующей электрической схемы и добавлении 20% резервной мощности для будущего роста нагрузки, которая должна быть показана в спецификации оборудования, если не указано иное. направляется предприятием на основе проектных параметров. Например, потребляемая мощность 3-фазного 4-проводного щита 208 Y/120 В на основе кода составляет 42 кВА, что не включает резервную мощность для будущего расширения. Таким образом, мощность трансформатора, необходимая для преобразования системного напряжения 480 В, 3-фазного, 3-проводного, в 208 Y/120 В, 3-фазного, 4-проводного, составляет:
Мощность трансформатора в кВА = 42 кВА x 1,25 = 52,5 кВА
Таким образом, для данного применения следует выбрать трансформатор на 75 кВА из доступных стандартных номиналов для первичной обмотки 480 В на вторичной обмотке 208 Y/120 В. Наиболее распространенные стандартные рейтинги в строительной отрасли: 3, 6, 9, 15, 30, 37,5, 45, 75, 112,5, 150, 225, 300, 500, 750 и 1000 кВА.
Приведенный выше простой расчет соответствует цели достижения нормального ожидаемого срока службы трансформатора, основанного на следующих основных условиях:
- Трансформатор равен или меньше своих номинальных кВА и номинального напряжения.
- Средняя температура охлаждающего воздуха в течение 24 часов составляет 86 F.
- Температура охлаждающего воздуха никогда не превышает 104 F.
Выбор
Выбор трансформатора начинается с номинальной мощности в кВА, необходимой для питания нагрузок, подключенных к электрической системе. Еще одним соображением для внутренних распределительных трансформаторов является тип нагрузки: линейная или нелинейная. Линейные нагрузки включают резистивный нагрев и асинхронные двигатели; нелинейные нагрузки создаются электронным оборудованием, которое вносит свой вклад в искажение сигналов электрической мощности, генерируя гармоники. Гармоники, возникающие из-за несинусоидальных токов, вызывают дополнительные потери и нагрев катушек трансформатора, что снижает ожидаемый срок службы трансформатора.
Внутренние трансформаторы для нелинейных нагрузок могут быть выбраны с номиналом K, что позволяет трансформатору выдерживать нелинейные условия в электрической системе. Трансформаторы класса K не смягчают и не устраняют гармоники. Однако они защищают сам трансформатор от повреждений, вызванных гармониками. Для подавления гармоник трансформаторы класса K можно комбинировать с фильтрами гармоник или дросселями. Для приложений с линейной нагрузкой следует выбирать трансформаторы с меньшими потерями в сердечнике. Другими факторами, которые следует учитывать при выборе трансформаторов, являются номинальное напряжение как для первичной, так и для вторичной обмотки, отводы напряжения, эффективность, значение импеданса, тип охлаждения и повышения температуры, класс изоляции по напряжению, базовый уровень импульса и уровень звука.
Практическое применение
За последние два года в округе Майами-Дейд были построены два крупных проекта: футбольный стадион Международного университета Флориды и южный терминал международного аэропорта Майами. Оба проекта включали сухие понижающие трансформаторы от 480 В от 3 фаз до 208 Y/120 В (в корпусах NEMA 2) мощностью от 15 кВА до 112,5 кВА в схеме распределения электрической системы.
Футбольный стадион ПФР на 18 688 мест был спроектирован с примерно 12 трансформаторами как часть распределительной системы электроснабжения для питания розеток общего пользования, небольших двигателей и других нагрузок в конструкции здания стадиона и пристроенного полевого здания. Расширение Южного терминала MIA было спроектировано с использованием около 50 трансформаторов с тем же назначением, что и на стадионе, но с более разнообразной группой нагрузок для 3-фазной 4-проводной системы 208 Y / 120 В, которая также включала осветительные нагрузки, вывески, телекоммуникации, системы безопасности и другие нагрузки являются частью этого строительного проекта (рис. 1).
Установка
Установка силовых трансформаторов и трансформаторных подвалов должна соответствовать требованиям статьи 450 Национального электротехнического кодекса (NFPA 70) и требованиям конкретных местных властей, имеющих юрисдикцию. Некоторые принципы, которые следует учитывать при установке трансформаторов, включают размещение их в изолированных помещениях с надлежащей вентиляцией, зазорами и доступностью. В противном случае их можно установить на открытые стены или стальные колонны или над подвесными потолками.
Кроме того, существуют другие особые требования, зависящие от типа трансформатора, такие как защищенные от атмосферных воздействий кожухи для сухих трансформаторов, установленных на открытом воздухе, или трансформаторное помещение для трансформаторов с масляной изоляцией, установленных внутри помещений.